Das Magazin für Netze, Daten- und Telekommunikation
Transcription
Das Magazin für Netze, Daten- und Telekommunikation
Ab Seite 251: Großer Stellenmarkt DM 14,- ÖS 110,- Sfr. 14,- Nr. 12, Dezember 2000 12 Das Magazin für Netze, Daten- und Telekommunikation www.lanline.de LANline auf der Exponet: Halle 6.1, Lichtharfe 52 Storage Area Networks Virtuelle Speicherverwaltung Fibre Channel im Detail mit Marktübersicht Fibre-Channel-Switches Das Magazin für Netze, Daten- und Telekommunikation Dezember 2000 Dezember 2000 Storage Area Networks/Virtual Private Networks Network Attached Storage Im Test: Drive Image Version 4 System Image auf CD-R/RW sichern Passive ISDNSternverkabelung Die Kriterien und die Grenzen Schwerpunkt: Virtual Private Networks Marktübersicht Verschlüsselungs-Software 1 2 4 398039 714002 B 30673 ISSN 0942-4172 EDITORIAL 155. AUSGABE Rainer Huttenloher Chefredakteur DER KREISLAUF: LUFT – GELD – LUFT Die Kenngrößen für den Bereich Informationstechnik und Telekommunikation (ITK) zeigen es deutlich: Diese Branche boomt. Glaubt man dem Zahlenmaterial der Auguren, wird die deutsche ITK-Branche heuer erstmals einen Umsatz von einer Billion Mark erzielen. Auch auf der Systems in München zog sich die positive Einschätzung wie ein roter Faden durch die Prognosen vieler Aussteller. Doch alle stehen derzeit vor einem massiven Problem: Der Mangel an Spezialisten im Bereich ITK stellt dieses Marktpotential in Frage. Insgesamt gesehen werden sich Umsätze nicht realisieren lassen, da qualifiziertes Personal fehlt, und aus Sicht der einzelnen Unternehmen werden die Personalkosten steigen, da Unternehmen nur mit teuren “Abwerbeaktionen” ihr Mitarbeiterbudget auffüllen können. Nun ist dieser “Experten-Engpass” an sich nichts Neues. Bereits im letztem Jahr waren erste Mahner zu hören, die dieses Szenario vorzeichneten. Viele Appelle richteten sich zum einen an Unternehmen, möglichst viele Fachkräfte auszubilden. Zum anderen schob man diese Aufgabe unserer Regierung zu – es besteht immerhin die Möglichkeit, sich als “Macher” zu präsentieren. Doch was in der Zwischenzeit geschehen ist, verdient das Prädikat “beschämend”. Die eine Seite brachte die dümmliche Parole “Kinder statt Inder” ins Gespräch. Die andere präsentierte eine “Greencard-Initiative”, die in der Realität eine satte Bauchlandung fabrizierte – Erfolg gleich Null. Dafür verdonnerte man die Telekommunikationsfirmen erst mal zu “freiwilligen Abgaben”. Jede Menge Milliarden galt es abzuschöpfen, als es zur Versteigerung der UMTS-Lizenzen kam: Aus Luft wurde “bare Münze”! Und mit dem unerwartet hohen Geldsegen kommen sofort wieder die alten Begehrlichkeiten auf den Tisch: Lobbyisten reklamieren Teile der UMTS-Milliarden für ihre Klientel. Marode Staatsbetriebe verlangen nach weiteren Finanzspritzen, weil – ach du Schreck – völlig unerwartet neue Risiken aufgetreten sind. Doch ich bin mir sicher, dass diese Finanzen wieder verpuffen – somit wird das Geld wieder zu Luft, und der Kreislauf schließt sich. Für mich riecht das stark nach einem abgekarteten Spiel. Wenn man eine aufstrebende Branche derart stark bereits am Anfang belastet, sollte man Rahmenbedingungen schaffen, die dieser Branche weiterhelfen. Für den kurzfristigen Bedarf an Fachleuten bleibt nur der Zugriff auf externe Ressourcen. Doch mittel- und vor allem langfristig muss der Staat dafür sorgen, dass wir die notwendigen Fachleute selbst hervorbringen können. Eine massive Änderung unserer Bildungspolitik mit einer deutlich besseren Förderung der von der Industrie benötigten Studiengänge wäre eine weitaus bessere Investition in die Zukunft. Doch hier müsste man alte Zöpfe endlich abschneiden – wer wird sich an diese Aufgabe wagen? Was bleibt, ist die Hoffnung auf einen radikalen aber sinnvollen Umschwung. (rhh@lanline.awi.de) www.lanline.de LANline 12/2000 3 INHALT netzTECHNIK Mit Standards Schritt für Schritt ans Ziel: Sichere Pfade zur IP-Telefonie..........78 netzMARKT Internet im Mittelpunkt: Lotusphere Europe 2000......................8 Interview mit Hans-Ulrich Roos: Kategorie 6/Klasse E setzt sich durch..14 Passive ISDN-Sternverkabelung: Untersuchung zeigt Kriterien und Grenzen...............................................88 Durchblick auf allen Ebenen: Panorama einer Netzlandschaft..........20 Kommerzielles Peering: Der Meta-Backbone des Internets......94 Marktmeldungen.................................22 Neuausrichtung bei ATI: IP als das Maß aller Dinge.................24 DHCP und Windows 2000, Teil 2: Automatische Konfiguration..............98 Siemens ICN: Stärker Richtung IP Mit neuer Strategie zur Dominanz.....30 Buchbesprechungen..........................104 Marktmeldungen, Fortsetzung...........31 Exponet 2000 in Köln: Netzwerktrends im Überblick............36 Messeführer Exponet..........................38 netzTOOLBOX Im Test: Drive Image, Version 4: Systemkopie auf Compact Disk.......106 netzPRODUKTE/SERVICES Vom Mainframe bis zur Internet-Appliance: Die Server-Familie wächst................. 44 RUBRIKEN Editorial.................................................3 Stellenmarkt......................................251 Seminarführer....................................259 Performance im Web: Schnell ist nie schnell genug............110 Com-Navigator..................................261 Im Test: Print Queue Manager 1.0: Komfortable Verwaltung von Druckaufträgen.................................117 Fax-Leser-Service.............................267 Im Test: Opalis Rendevous Version 1.6: Automatischer File-Transfer in LAN/WAN...................................120 Exchange 2000 Server in drei Varianten: Blöcke der Dot-Net-Strategie.............48 Der Optiview-Analyzer bietet laut Hersteller Fluke für geswitchte Netze neben der Protokollanalyse mit Paketerfassung, Dekodierung und Kontexterkennungsfilter auch Netzwerkstatistik, Fehlererkennung und Kabeltests Inserentenverzeichnis........................266 Impressum.........................................268 Vorschau............................................268 Ab Seite 251: Großer Stellenmarkt LANline Tipps & Tricks..................124 DM 14,- ÖS 110,- Sfr. 14,- Nr. 12, Dezember 2000 Im Test: Adaptecs USB-Xchange SCSI-Controller mit USB-Anschluss............................ 52 Das Magazin für Netze, Daten- und Telekommunikation www.lanline.de LANline auf der Exponet: Halle 6.1, Lichtharfe 52 Storage Area Networks Virtuelle Speicherverwaltung Fibre Channel im Detail netzLÖSUNGEN Serie: Netzwerkdienstleister (Teil 2): Produkt-News..................................... 60 Infrastrukturen aus einer Hand Systemkopie auf Compact Disc Drive Image von Powerquest sichert ganze Festplattenpartitionen in Image-Dateien, sodass sich ein System schnell wieder herstellen lässt. Einsatzzwecke sind einerseits die Datensicherung und andererseits die Installation von “frischen” Systemen in großen Stückzahlen. Die Version 4 kann jetzt Image-Dateien direkt auf CD-Rs und CD-RWs brennen. Zudem prüft die Software die Integrität von Images, kann Images auf NTFSDateisystemen ablegen und enthält einen verbesserten Image-Editor. as Funktionsprinzip von Drive Image ist so einfach wie effizient: Die Software kopiert eine ganze Partition einer Festplatte Sektor für Sektor in eine so genannte Image-Datei. Da Drive Image den vollen und exklusiven Zugriff auf die zu sichernde Partition benötigt, läuft das Programm unter DOS oder dem Kommandozeilenmodus von Windows 9x. Daraus folgt, dass das Programm die Image-Datei nur auf einem Datenträger ablegen kann, den das darunter liegende Betriebssystem D unterstützt – also FAT (unter DOS) oder FAT/FAT32 (unter Windows 9x). Die neue Version 4 kann zusätzlich Images auf NTFS-Dateisystemen ablegen. Bei der Wiederherstellung eines Images wird die Datei zurück auf die ursprüngliche oder eine andere Partition kopiert. Diese Art der Datensicherung ist so gründlich, dass nach der Wiederherstellung sowohl der BootSektor als auch die Fragmentierung der Festplatte dem Originalzustand entsprechen. Übersichtlich zeigt Drive Image bei allen Aktionen die Partitionen des lokalen Rechners grafisch sowie in einer Liste an 106 L AN line 12/2000 EINSATZBEREICHE Die Software lässt sich beispielsweise hervorragend in Testumgebungen einsetzen, die zur Evaluierung eines neuen Produkts eine “frische” Betriebssystemumgebung voraussetzen. Dabei werden Betriebssysteme direkt nach ihrer Installation “eingefroren” und anschließend mit Drive Image auf CD gesichert. Nach Abschluss eines Tests kann Drive Image die Abbilder jederzeit wieder “auftauen” und eine saubere Umgebung für den nächsten Test herstellen. Zur Datensicherung von Servern ist Drive Image allerdings nur bedingt geeignet, da die Software eine Partition nicht im laufenden Betrieb in eine Image-Datei kopieren kann. Neben der Datensicherung lässt sich die Software zur Masseninstallation von betriebsfertigen Systemen nutzen. So kann der Administrator oder ein VAR (Value Adding Reseller) ein Image eines Betriebssystems inklusive Applikationen auf zahlreiche Arbeitsstationen mit identischer Hardware überspielen und sich somit die individuelle Installation jedes einzelnen Rechners ersparen. Zudem kann Drive Image auch Partitionen direkt auf eine andere Platte kopieren. Das ist zum Beispiel nützlich, wenn eine kleine Systemplatte durch eine größere ersetzt werden soll. 106 PASSIVE ISDN-STERNVERKABELUNG www.lanline.de Im Test: Drive Image Version 4 System Image auf CD-R/RW sichern Untersuchung zeigt Kriterien und Grenzen Bisher sind für Verkabelungskonfigurationen an der ISDN-Teilnehmerschnittstelle S0 nur der kurze und erweiterte passive Bus oder Punkt-zuPunkt-Verbindungen standardisiert. Das sind aber nicht die einzigen Möglichkeiten, um ISDN-Teilnehmerendgeräte passiv an Netzabschlussgeräte (NTBA) anzuschließen. Der folgende Artikel zeigt die Ergebnisse von theoretischen und praktischen Untersuchungen an S0-Sternkonfigurationen mit bis zu acht Zweigen für gängige Installationskabel. Die Untersuchungen ergaben, dass die Installationsempfehlungen für S0-Netze durchaus entsprechend erweitert werden könnten. mmer mehr Installateure und Anwender fragen nach einer passiven Sternverkabelung am S0-Punkt, da dies je nach den lokalen Bedingungen beim Endteilnehmer günstiger sein kann als der (standardisierte) passive Bus. Bild 1 zeigt die drei standardisierten Grundtypen für eine passive ISDN-Verkabelung. Die unterste Struktur des erweiterten passiven Busses ist als Sonderfall standardisiert. Dabei bilden mehrere kurze Teilnehmerleitungen ein Strahlenbüschel am Ende einer Punkt-Punkt-Verbindung (Näheres in den Normen [1] und [2]). Wer Anleitungen und Empfehlungen für eine S0-Sternverkabelung sucht, findet diese beim North-American-ISDN-User-Forum in dem Dokument NIUF 444-97 und in der nationalen Richtlinie der niederländischen KPN – allerdings ohne theoretische Grundlagen oder Erprobungsergebnisse. Im Oktober 1999 veröffentlichte Cenelec einen Vorschlag zur Ergänzung der EN 50098-1, der die dort standardisierten Buskonfigurationen durch eine Sternkonfiguration ergänzt ([3]). Auch hier sind weder physikalische Herleitung noch Empfehlungen oder entsprechende Quellenangaben zu finden. Erwähnt sei auch, dass seit einiger Zeit aktive Sternkoppler (ISDN-Hubs) für die S0Schnittstelle angeboten werden ([6], [7], I 88 L AN line 12/2000 Schwerpunkt: Virtual Private Networks Marktübersicht Verschlüsselungs-Software 12 4 398039 714002 B 30673 ISSN 0942-4172 L AN line 12/2000 [8]), die sich bei den maximalen Zweiglängen am genormten S0-Bus orientieren, jedoch einen deutlichen Mehraufwand darstellen. Der Koppler wird entweder direkt am S0-Port des NTBA angeschlossen oder ist in eine Klein-TK-Anlage integriert. PHYSIKALISCHE ANFORDERUNGEN AN STERNKONFIGURATION Eine Herlei- tung der physikalischen Anforderungen an eine Sternkonfiguration kann auf den bereits vorhandenen und bekannten Fall des kurzen passiven Busses aufsetzen, wobei es wegen der praktisch auftretenden Kabelvielfalt und der Vielschichtigkeit der Phänomene kaum möglich ist, eine allgemeingültige Berechnungsformel anzugeben. Ähnlich wie beim passiven S0-Bus oder den Uko-seitigen Amtskabeln wird man anhand von untersuchten Fallbeispielen für typische Kabelkonfigurationen Forderungen aufstellen, die – versehen mit einem Sicherheitszuschlag – einen Kreis um die unendliche Vielfalt der denkbaren Anwendungsfälle schlagen ([4] und [5]). Während sich die Abschätzungen bei den bisherigen S0-Installationen auf die Einhaltung der begrenzten Laufzeit (kurzer Bus) oder die zulässige Signaldämpfung (Punkt-Punkt-Verbindung) zurückführen lassen, treten im Fall der Sternkonfiguration die Pulsverzerrungen in den Vordergrund, die durch Reflexionen an den nicht angepassten Kabelenden entstehen. Hinzu kommt der Wunsch eines jeden Bild 1. Die drei Grundtypen für eine passive ISDN-Verkabelung www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS FLEXIBEL UND DENNOCH 88 194 PRODUKTIV VIRTUAL PRIVATE NETWORKS FÜR UNTERNEHMEN Ein virtuelles privates Netzwerk (VPN) verbindet verschiedene Netzwerke über nicht vertrauenswürdige oder öffentliche Netze so, dass es für die Anwender und die Anwendungen in den einzelnen Netzen den Anschein eines einzigen Netzwerks macht. Beim Einrichten einer solchen Lösung sind allerdings etliche Aspekte wie zum Beispiel Sicherheit , Abrechnungsmethoden und leichte Bedienarbeit zu berücksichtigen. 194 6 Passive ISDNSternverkabelung Die Kriterien und die Grenzen netzTECHNIK ARBEITSWEISE Da nicht jedes System ei- ne Festplattenpartition mit ausreichend Platz für eine Image-Datei bietet, reduziert die Software die Größe der Dateien auf mehrere Arten. So kopiert Drive Image bei den Dateisystemen FAT, FAT32, NTFS und Linux Ext2 nur die belegten Sektoren. Das ebenfalls von Powerquest erhältliche Server Image beherrscht dieses Verfahren auch für Netware-Volumes. Zudem kann die Software Images in zwei Stufen komprimieren, um Platz zu sparen. Für das Sichern von Image-Dateien auf Wechseldatenträgern kann der Administrator festlegen, dass die Image-Datei aus mehreren Teilen bestimmter Größe bestehen soll (ähnlich wie es beispielsweise bei ZIP- und RAR-Archiven möglich ist). Zum Schutz vor fremdem Zugriff lassen sich ImageDateien mit einem Kennwort versehen, das bei der Wiederherstellung angegeben werden muss. Da unkomprimierte Images alle mit Marktübersicht Fibre-Channel-Switches VIRTUAL PRIVATE NETWORKS IM TEST: DRIVE IMAGE, VERSION 4 128 Dezember 2000 netzTOOLBOX Network Attached Storage Das Magazin für Netze, Daten- und Telekommunikation Global Traffic Delivery durch GPS: Die absolute Garantie dank “GPS”....56 L AN line 12/2000 www.lanline.de www.lanline.de INHALT SCHWERPUNKT: STORAGE AREA NETWORKS Die Zukunft der Speicherverwaltung: Allianzen und Philosophien.............................................132 Nach zehn Jahren rapide aufwärts: Fibre Channel – ein Spätzünder.......................................140 The Fibre Channel Event: Europäische FC-Konferenz in London............................150 Effizientes Management: Virtualisierung macht SANs offener...............................154 Integrierte Speicherlösungen: Technologische Betrachtung von SANs..........................158 Optimale SAN-Connectivity: FC-Directoren oder FC-Switches?...................................164 Vernetzte FC-Switches: FC-Fabrics für unternehmensweite SANs.......................168 SAN und NAS gemeinsam stark: Rezentralisierung der C/S-Landschaften.........................178 Open Storage Networking: Fokussierung auf NAS und SAN reicht nicht.................184 SAN-Management-Software: SANsymphony – das virtuelle SAN................................188 Anbieterübersicht: Fibre-Channel-Switches...................191 Marktübersicht: Fibre-Channel-Switches........................192 SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Virtual Private Networks für Unternehmen: Flexibel und dennoch produktiv......................................194 IP-VPNs: Ein neuer Markt entsteht: Multiprotocol Label Switching........................................202 Virtual Private Networks (VPNs) und IPSec: Private Daten routen.........................................................206 Anlegen und Administrieren von VPNs: Management des Datenaustausches.................................210 Das Ende der proprietären Protokolle: Sicher durch den Tunnel..................................................218 VPN-Abrechnungssystem für Großkunden: Durchblick statt Dschungel..............................................222 Marktübersicht: Verschlüsselungs-Software...................224 Anbieterübersicht: Verschlüsselungs-Software..............230 fokusE-COMMERCE Content-Management-Systeme: Anforderungen und Kriterien...........................................232 JSP, Servlets und XML: Architekturen für Anwendungen.....................................238 Object-Broker für E-Commerce: Komponenten im Wettstreit.............................................244 www.lanline.de L AN line 12/2000 7 netzMARKT INTERNET IM MITTELPUNKT Lotusphere Europe 2000 Vom 25. bis 29. September präsentierte Lotus zusammen mit seinen Business-Partnern Neuheiten, Strategien und Aussichten in Berlin. Rund 3600 Fachbesucher informierten sich über neue DominoFunktionen und Lotus-Produkte wie das ASP-Solution-Pack und das kommende Wissensportal ”K-Station“. Generell lagen Portale ganz massiv im Trend. Die Eröffnungsveranstaltung ließ Zweifel darüber aufkommen, ob man sich denn wirklich in der Bundeshauptstadt oder nicht doch jenseits des ”Weißwurstäquators“ auf dem Oktoberfest befindet: Da trat tatsächlich der neue Präsident und CEO von Lotus Development, Al Zolar, als ”Bierdimpfel in Lederhosen“ auf. Die beabsichtigte Message kam auf jeden Fall herüber: Auch Bierbrauereien werden zukünftig mit Hilfe von Lotus-Produkten ganz selbstverständlich im Sinne des ”ECommerce“ ihre Geschäfte im ”biermarket.net“ abwickeln. Zusammenarbeit über das Netz ist gefragt: ”Work As One!“. Abgesehen von Unterhaltungseinlagen bot Lotus aber auch interessante Entwicklungen. Ganz in alter Tradition der kleinen Versionsschritte an zweiter Kommastelle mit großen Funktionssprüngen kündigte Lotus das neue ”five-o-five“ von Domino und Notes an. Entgegen alter Gewohnheiten muss auf den 8 L AN line 12/2000 bunten Strauß interessanter Neuerungen jedoch nicht erst lange gewartet werden: Angekündigt war die Verfügbarkeit zwar erst ”innerhalb der nächsten 30 Tage“, jedoch konnten bereits während der Lotusphere die ersten Downloads über http://www.notes. net/qmrdown.nsf für alle unterstützten Betriebssystemplattformen, darunter auch Linux, anlaufen. Selbst die in Berlin anwesenden Iris-Entwickler zeigten sich von solcher Termintreue sichtlich überrascht. Zu den Highlights des ”Quarterly Maintenance Release“ zählen der Domino Network File Store (”DNFS“), standardmäßige Integration der Domino Offline Services (”DOLS“) und das darauf aufbauende ”iNotes for Microsoft Outlook“, sowie entwicklerorientierte Erweiterungen wie die Domino Collaboration Objects (einfache Nutzung der Domino-Dienste via Visual Basic, VBA oder Active Server Pages), der neue Lotus Connector für OLE/DB zur direkte- ren Anbindung von Microsofts SQL-Server und Unterstützung für ein Single SignOn in Verbindung mit IBMs Websphere-Application-Server ab Version 3.5. Der Domino Network File Store 1.0 öffnet Notes-Datenbanken erstmals für den einfachen Zugriff per Dateisystem. Dazu emuliert ein DominoServer-Task einen eigenständigen SMB-Server (Server Message Block), auf den beliebige SMB-Clients wie Microsofts Netzwerk-Clients aber auch entsprechende Clients unter Linux oder anderen Betriebssystemen wie auf einen normalen Fileserver zugreifen können. Vorbereitete Notes-Datenbanken erscheinen als Unterverzeichnis einer speziellen Freigabe des virtuellen Fileservers. Jede sichtbare Datei entspricht einem Attachment innerhalb eines Notes-Dokuments. Ordner innerhalb der Notes-Datenbank erscheinen als korrespondierende Dateiverzeichnisse. Mit dieser neuen Datenschnittstelle kann Domino R5 nun auch mit einer ähnlichen Funktionalität glänzen, wie sie das ”Web-Storage-System“ von Microsoft Exchange 2000 bietet. Allerdings erlaubt DNFS nicht wie Exchanges Web Store den vollständigen und einfachen dateiorientierten Zugriff auf sämtliche Mails und andere Dokumente im Information Store, sondern beschränkt sich auf die Dokumentenanhänge in speziell dafür gestalteten Datenbanken. Den genauen Praxisnutzen müssen daher erst zukünftige Anwendungsdesigns unter Beweis stellen. Auf jeden Fall kann bereits die erste Version von DNFS auch ”offline“ in Kombination mit dem Notes Desktop eingesetzt werden, solange dieser unter NT betrieben wird. Wer die Möglichkeiten von DNFS selbst unter die Lupe nehmen möchte, muss sich allerdings entweder bis zur nächsten offiziellen Domino-Distribution auf CD gedulden oder Zugang zur Lotus-Partner-Zone besitzen: Unverständlicher Weise ist DNFS nicht Bestandteil der QMR-Download-Dateien. Die Domino-Offline-Services sind zwar bereits seit Ende letzten Jahres als kostenloser Bild 1. iNotes alias ”Shimmer“ heißt der neue Browser-basierte Offlinefähige Client zu Domino www.lanline.de netzMARKT Zusatzdienst für Domino R5 offiziell verfügbar und damit nicht mehr ganz brandneu, doch treten sie erst mit der Integration in den Standardlieferumfang von Domino 5.05 und als technischer Grundpfeiler von ”iNotes“ ins Rampenlicht. Lotus verteilt seine neue Client-Strategie auf drei tragende Säulen, die sich jeweils für unterschiedliche Anwendungssituationen empfehlen: Das klassische ”Notes“ als komfortabel integrierte Anwendung für Windows und MacOS, ”iNotes“ als Offline-fähiger Client in Verbindung mit Web-Browser oder Microsoft Outlook und schließlich ”Mobile Notes“ für die mobile Nutzung von Domino-Diensten zur Zusammenarbeit aber auch der Sametime-basierten Echtzeitkommunikation über WAPfähige Handys oder Handhelds wie zum Beispiel Palms und Pocket-PCs. Die Domino-Offline-Services erlauben als einzige Lösung am Markt komplexe interaktive Web-Anwendungen für die Offline-Nutzung zu entwickeln. Lotus demonstriert das damit entstehende Potenzial neuer Einsatzfelder für Browser-basierte Anwendungen bereits seit geraumer Zeit sehr anschaulich mit Lotus Quickplace. Möglich macht das Kunststück der Web-Anwendungen ohne Online-Verbindung zu einem Web-Server die zentrale Client-Komponente ”Lotus iNotes Sync Manager“ für Windows 9x/NT/2000. Über Active-X-Mechanismen dynamisch, wenn auch je nach Server-Anbindung etwas langatmig durch seine zirka 19 MByte Umfang installiert, 10 L AN line 12/2000 stellt der iNotes Sync Manager als Front-end einerseits einen lokalen HTTP-Server mit Domino-Anwendungslogik und andererseits einen MAPIProvider mit Kompatibilität zu Microsoft Outlook 98/ 2000 als Schnittstelle zur Verfügung. Auf der Back-end-Seite verrichten die Kronjuwelen von Lotus ihren Dienst: Die bei der Verzicht der Entwickler auf verschiedene Java-Applets. Auch die Ausschmückung von Mails mit Formatierungen über den Java-basierten Editor von Web-Mail ist nun endlich für den zeitlosen Benutzer optional. Wer Domino lediglich als reinen Messaging-Server mit persönlicher Kalender- und Aufgabenver- Bild 2. K-Station wird nach den Vorstellungen von Lotus das neue Webbasierte Portal zum Wissen im Unternehmen Replikation von Notes-Datenbanken zwischen DominoServer und iNotes Client über das Notes RPC-Protokoll unter Berücksichtigung der gewohnten Sicherheitsarchitektur inklusive der sicheren Benutzerauthentifizierung via lokal vorliegender Notes-ID. Unter Domino 5.05 profitiert als erstes die neue erweiterte Mail-Schablone von DOLS. Mails, Kalendereinträge, Aufgaben und Kontakte lassen sich nach erstmaliger Replikation auf den lokalen Arbeitsplatz auch offline bequem per Web-Mail bearbeiten. Für ein verbessertes Antwortverhalten gegenüber den Vorgängerversionen sorgt da- waltung nutzen will und dafür lieber Microsofts Outlook 98 oder 2000 vorzieht, kann auch dieser Neigung durch den erstmalig bereitgestellten MAPI-Provider nachgehen. Outlook agiert in diesem Fall einfach als alternativer Client zum Web-Browser. Erste Tests im LANline-Lab wiesen jedoch auf die eine oder andere Inkompatibilität hin, die vor einem ernsthaften Einsatz abgeklärt werden sollten. Den eigentlichen iNotesClient ”Shimmer“ gab es aber auch auf der Lotusphere erst als Pre-Beta mit noch nicht vollständigem Funktionsumfang zu bestaunen. Shimmer soll im Laufe des nächsten Jahres den Komfort bei der Nutzung der Domino-Dienste via Web-Browser mit Hilfe eines völlig neuen Designs nochmals deutlich steigern und baut dazu verstärkt auf DHTML. Selbst die bekannte Welcome-Page von Notes ist als persönliches Portal implementiert. Shimmer-Beta ist mittlerweile öffentlich über http://www.notes.net/inotes webaccesswelcome.nsf verfügbar. Bereits letzes Jahr war auf der Lotusphere der allgemeine Trend bei Lotus zu einer Image-Korrektur vom Anbieter proprietärer Unternehmenslösungen hin zur Internet-Company nur zu deutlich zu spüren. So verwundert es nicht, dass auch das Trendthema ”ApplicationService-Provider“ auf der Tagesordnung stand. Lotus will engagiert diese Zielgruppe mit dem neuen ”Lotus ASP Solution Pack“ ansprechen. Das Solution Pack soll ASPs eine Plattform zur Entwicklung Web-basierter Dienste geben. Dazu geben die Chefköche zunächst einmal bekannte und bewährte Zutaten in den Angebotstopf: Den Domino-ApplicationServer zur Bereitstellung von Web-Mail und der Web-basierten Anwendungsentwicklung, Lotus Quickplace 2.0 für die teamorientierte Zusammenarbeit und schließlich Sametime für die Echtzeitkommunikation mittels Chat, Whiteboard, ApplicationSharing und Audio-/VideoÜbertragung (neu mit der während der Lotusphere angekündigten Version 2.0). Die alles verbindende Schlüsselposition im ASP Solution Pack nimmt jedoch das neue www.lanline.de netzMARKT Lotus-Hosting-ManagementSystem 2.0 (LHMS) als Nachfolger von Instant!Host ein. Als Middleware zu den Anwendungs-Servern (Domino, IBM Websphere, Quickplace) stellt LHMS die notwendigen Dienste zur Verwaltung und Distribution von ASP-Anwendungen bereit. So dient beispielsweise der ”Community Workspace“ als Anwender-Portal zu den individuell zusammengestellten und angepassten Anwendungen für einen ASP-Kunden. Ebenso kann der ASP die jeweilige Benutzerverwaltung an einen Community-Manager delegieren. LHMS bietet über sein SDK Schnittstellen zu Abrechnungssystemen wie sie für das Geschäftsmodell eines ASPs unerlässlich sind. Insgesamt nimmt LHMS damit zusammen mit integrierten Distributionsschemata für LHMS-konforme Anwendungen für ASPs die Rolle ein, die zum Beispiel Windows als rahmengebende Anwendungsumgebung für den Desktop spielt. Lotus selbst führt zusammen mit seinem ASP-Angebot auch ein neues Abrechnungsmodell ein: monatliche Nutzungsgebühren pro Benutzer und Anwendung. Erste Bekenntnisse zu seinem ASP-Angebot konnte Lotus in Berlin zum Beispiel von der Telecom Italia und Siemens Business System verkünden. Das ASP Solution Pack ist bereits unter NT und AIX verfügbar. Unterstützung für Solaris und AS/400 soll noch bis Ende des Jahres folgen. Interessierte Entwickler finden das LHMS 2.0 SDK unter http:// www.lotus.com/asp. 12 L AN line 12/2000 DAS WISSENSPORTAL: KSTATION Nachdem Lotus letztes Jahr in Berlin die Arbeit an einer Knowledge-Management-Suite unter dem Code-Namen ”Raven“ verkündete, konnten nun ein Jahr später erste Früchte geerntet werden, wenn auch nur fast: Die Fertigstellung vom ersten der beiden RavenBausteine ”K-station“ wird wohl noch bis November dauern. Lotus bezeichnet KStation unter anderem als Bild 3. Präsident und CEO Al Zollar kam auf der Lotusphere auch in Lederhosen beim Publikum gut an ”Stand-alone Portal Server“, der derzeit noch ausschließlich über den Microsoft Internet Explorer 5 und unter direkter Server-Verbindung (kein Offline-Betrieb) genutzt werden kann und auf Basis von Windows NT/2000 läuft. Unabhängig von der bereitgestellten Funktionalität ist bereits die Positionierung als ”Stand-alone“-Produkt interessant: Offensichtlich soll Knowledge-Management nicht unter zwingender Voraussetzung einer Lotus-Domino-Umgebung geschehen, sondern ebenso in Microsoft- und anderen Welten – Hauptsache die KM-Dienste tragen das Lotus-Label. Nichts destotrotz schlägt natürlich auch im Kern von K-Station ein Domino-Herz. Wie bereits bei Quickplace und Sametime, für die dasselbe gilt, wird dies bei Installation und Browserbasierter Administration kaum bis zur Oberfläche durchscheinen. Alle drei Produkte (Quickplace ab Version 2.0) nutzen übrigens auf Wunsch zur Benutzerauthentifizierung gegen ein externes Verzeichnis LDAP. Damit steht einer Integration mit Microsoft Active Directory, Novell E-Directory oder anderen LDAP-konformen Verzeichnisdiensten nichts im Wege. Der zweite interessante Punkt an K-Station ohne Blick auf die Funktionalität ist die Abhängigkeit vom Internet Explorer. Trotz Internet-Orientierung und Bekenntnis zu offenen Standards macht auch Lotus kaum einen Hehl daraus, dass sich letztlich das bessere Produkt durchsetzt, auch wenn Microsoft nicht zu den engsten Lotus-Freunden zählt. Wer hätte das vor noch wenigen Jahren zur Blütezeit von Netscape für möglich gehalten? Nach dem persönlichen Web-Portal von ”Shimmer“ und dem ”Community Workplace“ als ASP-Portal soll K-Station als Portal zum ”Unternehmenswissen“ dienen. Dazu werden Fenster zu ”Places“ (Orte der Zusammenarbeit wie ”Quickplaces“), ”People“ (der direkte Draht via Sametime-Kernfunktionalität) und ”Things“ (Dokumentbibliotheken und andere Anwendungen) in thematischen Gruppen arran- giert. Die gesamte Verwaltung von K-Station erfolgt DHTML-gestützt via WebBrowser. Das ”KnowledgeBackend“ zum Wissensportal, der ”Raven Discovery Server“ soll noch im ersten Quartal 2001 folgen. Auch dieses Jahr wurden in einer gelungenen Galaveranstaltung die Beacon Awards an Lotus Business Partner verteilt. Drei der begehrten europäischen Auszeichnungen blieben gleich im Land: das EMEA Business Partner Achievement ging an PC-Ware Information Technologies AG in Leipzig, als Entwickler der besten Messaging-Solution wurde die Cedros GmbH aus Siegburg ausgezeichnet und für seine Nichtkommerziellen Aktivitäten im humanitären Bereich (”Best Philanthropic Solution“) erhielt die What’s Up AG aus München den ”Oskar“ der Lotus-Branche. Das zu erfolgreichen Internet-Aktivitäten nicht nur die richtige Technologie, sondern auch organisatorische Kompetenzen gehören, bewies Lotus leider nur als Negativbeispiel bei der Publikation der Unterlagen zu den vielfältigen technischen Sitzungen in Berlin: Ganze vier Wochen brauchte man, bis die ersten, noch spärlich gesäten PDFDokumente den Weg auf die Website von Lotus fanden. Offensichtlich beherzt man selbst noch nicht ganz das Credo der Veranstaltung ”Work As One“. (Peter Meuser/rhh) Peter Meuser (mailto: pmeuser@lanlab.de) ist selbstständiger IT-Consultant in München und Mitglied des LANline-Labs. www.lanline.de netzMARKT INTERVIEW MIT HANS-ULRICH ROOS: Kat 6/Class E setzt sich durch Aus berufenem Munde werden Systemintegratoren und Netzwerkverantwortliche auf dem diesjährigen Systimax Kongress 2000 am 30. November im Arabella-Sheraton-Congress-Hotel Frankfurt/Main erfahren, wie sich der “Lucent Spin-off” Avaya die Zukunft der Gebäudeverkabelung und die eigene Positionierung im heiß umkämpften Verkabelungsmarkt vorstellt. Wir unterhielten uns vorab mit dem Keynote-Speaker Hans-Ulrich Roos, welche Standardisierungstrends im Verkabelungsbereich aktuell auszumachen sind. Hans-Ulrich Roos ist Mitarbeiter der Forschungs- und Entwicklungsabteilung der Lucent Spin-off Avaya Communication und weltweit für die Koordinierung der Standardisierungsaktivitäten im Inhouse-Verkabelungsbereich zuständig. LANLINE: Vorab gefragt: Was ist aus den Bell Labs nach der Ausgliederung von Avaya geworden? HANS-ULRICH ROOS: Der Bell-Labs-Bereich, der für Connectivity-Lösungen zuständig war, ist komplett aus Lucent ausgegliedert und in die Avaya Labs, nach wie vor mit Sitz in Holmdale, zugeordnet worden. LANLINE: Mit welcher konkreten Aufgabenstellung sind Sie heute bei Avaya tätig? HANS-ULRICH ROOS: Auch an meiner Funktion hat sich nichts geändert. Ich bin nach wie vor – früher bei Lucent, heute bei Avaya – für die Standardisierungsaktivitäten im Gebäudeverkabelungs- 14 L AN line 12/2000 bereich zuständig. Von der Produktseite her sprechen wir über die Systimax-Produktpalette, die sich auf die Gebäudeverkabelung fokussiert und nichts mit dem Carrier-Bereich zu tun hat. Zu meiner aktuellen Funktion innerhalb der Avaya Labs: Ich koordiniere weltweit innerhalb unserer Firma die Aktivitäten im Bereich der Gebäudekommunikationsverkabelungsstandards und arbeite außerhalb in den nationalen und internationalen Standardisierungsgremien mit. LANLINE: Sie sind einer der Keynote-Speaker auf dem “Systimax Structured Connectivity”-Kongress in Frankfurt – worüber werden Sie sprechen? HANS-ULRICH ROOS: Mein Beitrag wird hauptsächlich die aktuellen Standardisierungstrends im Verkabelungsbereich aufzeigen. Ich möchte den Kongressteilnehmern verständlich machen, warum wir neue Standards benötigen, wie diese Standards erarbeitet werden und was aktuell an neuen Standards im Entstehen ist. Mir geht es in diesem Beitrag weniger um technische Details sondern mehr um das Aufzeigen genereller Trends und ihrer Auswirkungen auf das Verkabelungsgeschäft. LANLINE: Bislang spielte die Frage nach der richtigen Verkabelungslösung bei der Realisierung von Kommunikationslösungen für die Entscheider keine zentrale Rolle – wird sich daran in der Zukunft etwas verändern? HANS-ULRICH ROOS: Wer heute in der Verantwortung steht, in einem Unternehmen oder einer Behörde eine neue Infrastruktur aufzubauen, ist gut beraten, sich an den Standards zu orientieren. Der passive Bereich der Infrastruktur, die Verkabelung, ist die Grundlage, auf der alle aktiven Komponenten aufbauen und über die sie miteinander kommunizieren. Nur standardisierte Verkabelungsstrukturen können dies sicherstellen. Bei den heutigen Anforderungen an die Unternehmen, ihr Verkabelungsnetz zur allumfassenden Kommunikationsplattform für komplexe BusinessProzesse auszubauen, sollte die Frage nach der richtigen, zukunftsweisenden Verkabelungstechnologie eigentlich Chefsache sein. Denn alle folgenden Unternehmensstrategien beispielsweise im E-Com- merce- oder E-Business-Bereich basieren nun einmal physikalisch auf der Verkabelungsinfrastruktur. Und erfahrungsgemäß hat die Verkabelung die längste Nutzungsdauer von allen Networking-Komponenten. Investoren erwarten heute von den Kabellieferanten eine 10- bis 15-jährige Funktionsgarantie. Wir geben zum Beispiel auf unser Kategorie-6kompatibles Verkabelungssystem Systimax-Gigaspeed 20 Jahre Garantie. LANLINE: Welchen Einfluss übt konkret E-Commerce auf die Verkabelungsnachfrage aus? HANS-ULRICH ROOS: ECommerce ist zunächst einmal eine Applikation, angesiedelt in der Schicht 7 des Kommunikationsmodells. Sprechen wir über die Verkabelung, meinen wir die Schichten 0 beziehungsweise 1. Das scheint weit weg zu sein von dem, was oben geschieht. Trotzdem hat die Applikation wesentlichen Einfluss auf die Anforderungen in den unteren Ebenen. E-Commerce wird sehr hohe Datenmengen verursachen. Jetzt wird nicht mehr über Telefon oder Fax bestellt, sondern online über das Internet. Es wird über Internet die Ware geordert, ihre Auslieferung verfolgt und die gesamte Abrechnung abgewickelt. Der Kommunikationsfluss steigt nicht nur nach außen zum Kunden, sondern auch intern zwischen den Abteilungen, die mit der Entwicklung, Bereitstellung und Auslieferung der Ware in finanzieller, logistischer und kaufmännischer Hinsicht zu tun haben. Diesen Anforderungen muss eine Verkabelung heute und in den nächsten Jahren gewachsen sein. Heute sprechen www.lanline.de netzMARKT wir von High-speed-Verkabelungssystemen, wenn wir über Vernetzung sprechen. Diese Systeme sind sehr komplexe Lösungen, deren Interconnectivity-Qualität dringend durch Standards geregelt sein muss, weil ansonsten niemand für Interoperabilität zwischen den aktiven Komponenten garantieren kann. Genau darauf sind die Unternehmen aber angewiesen, wenn sie für ihre Applikationen beispielsweise im E-Commerce-Bereich eine Hochverfügbarkeit rund um die Uhr an 365 Tagen im Jahr garantieren sollen. LANLINE: Im Verkabelungsbereich stehen neue Standards vor der Tür – was bedeutet dies für Unternehmen wie Avaya in ihren Entwicklungsaufwendungen? HANS-ULRICH ROOS: Es kostet Hunderte von Millionen Dollar, eine neue Anwendung entsprechend neuer Standards zu entwickeln und zum Laufen zu bringen. Besitzen diese hochkomplexen Aktivkomponenten Marktreife, muss in sehr kurzer Zeit eine breite Käuferschicht erreicht werden, weil sonst der Return of Invest in weite Ferne rückt. Dies gelingt nur, wenn auf bestehende Infrastrukturen aufgebaut werden kann. Momentan ist der vorherrschende Verkabelungsstandard die Kategorie5/1995-Norm. Es gibt im Markt bereits Kategorie-5eInstallationen, die den neuen Kategorie-5/Klasse D der zweiten Ausgabe des Verkabelungsstandards entsprechen, der im nächsten Jahr herauskommt. Eine Kategorie 6/Klasse-E-Norm wird ebenfalls in dieser Ausgabe definitiv standardisiert und steht 16 L AN line 12/2000 quasi in den Startlöchern. Diese neuen Verbindungsklassen werden von den Applikationsentwicklern im Moment noch nicht genutzt, aber dies ist nur noch eine Frage der Zeit, denn die neuen Standardklassen bieten eine deutlich höhere Übertragungssicherheit. LANLINE: Gehen die neuen Standards am tatsächlichen Bedarf nicht weit vorbei? HANS-ULRICH ROOS: Bei der Verarbeitungsgeschwindigkeit im PC-Bereich sehe ich noch kein Ende der technologischen Entwicklung. Allerdings können PCs für sich isoliert arbeiten. Sprechen wir über die Anbindung an Netzwerke wie das Internet, dann ist der Datendurchsatz abhängig davon, wie es in dem ProxyServer des Service-Providers aussieht. Die Beschränkung liegt hier eindeutig im WANBereich. Im lokalen Netzwerk werden deutlich höhere Verarbeitungsgeschwindigkeiten gefordert, um die internen Applikationen im CAD-Bereich, bei der Abfrage großer, verteilter Datenbanken oder der Übertragung großer Files an das Maximum ihrer Leistungsgrenzen zu treiben. Im Innenbereich reden wir tatsächlich bereits heute über High-speedApplikationen, für die die Verkabelung heute und morgen nicht der Flaschenhals sein darf. LANLINE: Bei Kategorie 6 sieht die Norm eine Bandbreite von 250 MHz vor – wird hier nicht dennoch weit über das Ziel hinausgeschossen? HANS-ULRICH aus. Allerdings bietet eine Kategorie-6-Verkabelung schon heute deutlich mehr Sicherheit, sodass die High-speed-Applikationen in meinem Netzwerk ordentlich laufen und Störungen von außen einen geringfügigeren Einfluss auf die ganze Kommunikation ausüben können. Es gibt zudem konkrete ROOS: Wenn ich mir die heute aktuellen Applikationen betrachte, reicht sicherlich eine saubere Kategorie-5e-Verkabelung te von 250 MHz bei Kategorie 6/Klasse E bietet mehr Sicherheit für die Leistungsgrenzen des lokalen Netzwerks als Kategorie 5e. Nehmen wir zudem die Dämpfung als Maß aller Dinge, dann kommen wir auf eine wirklich nutzbare Bandbreite bei Kategorie 6 von 180 MHz. Ich sehe Kategorie 6/Klasse E für die nächsten zehn Jahre als den anerkannten Industriestandard. LANLINE: Kategorie 7 geht sogar von 600 MHz aus – bietet dies nicht noch mehr Zukunftssicherheit? HANS-ULRICH Hans-Ulrich Roos, Standardisierungsexperte bei Avaya: ”In der Verkabelung wird sich Kategorie 6/Klasse E definitiv durchsetzen“. Ansätze, einen so genannten 1000Base-TX- Ethernet-Standard für Kategorie 6/Klasse E zu kreieren, der bereits im letzten Entwurfsstadium steht. Er ist von der TIA-41.5 erarbeitet worden, weil IEEE 802.3 hier kein Interesse gezeigt hat. Hier ist man bereits auf den nächsten Stand, auf 10-GigabitEthernet, gesprungen, der dann praktisch ein Glasfaserstandard sein wird. Hier wird es meines Erachtens keinen entsprechenden Standard für Kupferkabel mehr geben, da wir damit bereits die physikalischen Grenzen des Kupfers überschritten haben. Somit macht es keinen Sinn, höhere Kategorien und Klassen als Kategorie 6/Klasse E zu verwenden. Fakt ist, die Bandbrei- ROOS: Das Problem dieser Kategorie ist, dass der Nutzer zwar für 600 MHz die teure Schirmung zu bezahlen hat, aber nur einen recht geringen Anteil der Bandbreite wirklich nutzen kann. Bei zirka 30 db Dämpfung steht real nur zirka 210 MHz Bandbreite zur Verfügung. Das ist sicherlich nicht als Durchbruch zu bezeichnen. Der Vorschlag einer Kategorie-7-Norm geht eindeutig von den geschirmten Kabelherstellern aus den deutschsprachigen Ländern aus und wurde nicht aufgrund eines konkreten Bedarfskriteriums der Anwendungshersteller getrieben. Ich messe diesem Vorstoß keine echten Überlebenschancen am Markt bei, da der weltweite Erfolg dieser Klasse bis heute nicht eingetreten ist, obwohl eine deutsche Vornorm seit vier Jahren vorhanden ist. Kategorie 6 wird bei Neuinstallationen immer mehr Kategorie5- und Kategorie-5e-Lösungen im Markt ablösen, als letzten, vernünftigen und brauchbaren Standard für Kupferkabel. Hier sind die Preisunterschiede so gering, dass sich letztlich Kategorie 6 über das günstigere www.lanline.de netzMARKT Preis-Leistungs-Verhältnis am Markt durchsetzen wird. Das zur Zeit weltweit meistverkaufte Verkabelungssystem, Systimax Gigaspeed 1071, ist ein Kategorie-6-Produkt, aus unserem Haus. Die folgenden Hochgeschwindigkeitsanwendungen über 1,2 GBit/s werden sich auf Glasfaser beziehen. LANLINE: Mit dem Kabel alleine lässt sich keine Verkabelung aufbauen – wie sieht es bei den Stecksystemen aus? HANS-ULRICH ROOS: Stecksysteme müssen optimal auf das Kabel abgestimmt sein, um keine Probleme von den Rückflussdämpfungen her zu bekommen. Bei der kommenden Generation von Highspeed-Verkabelungssystemen kann ich nur dringend von Mix-and-Match-Systemen abraten, bei denen Stecker und Kabel von unterschiedlichen Herstellern kommen. Das war schon bei Kategorie 5 teilweise problematisch, bei Kategorie 6 mit Gigabit-EthernetÜbertragungsgeschwindigkeit sollten beide Komponenten aus einer Hand kommen. Nur so kann sich der Benutzer auf umfassende Anwendungsund Funktionsgarantien verlassen. Bei einer Mix-andMatch-Verkabelung könnten hier Verantwortungsprobleme entstehen. LANLINE: Welchen Verkabelungsstandard sollte ein Bauherr heute wählen, wenn es um eine Neuverkabelung geht? HANS-ULRICH ROOS: Ich empfehle aus Gründen des besseren Preis-Leistungs-Verhältnisses ein Kategorie-6Verkabelungssystem, bei dem alle Komponenten aus einer Hand kommen. Der Bauherr sollte sich zudem folgendes vor Augen führen: Die Verka- 18 belung macht heute rund zwei Prozent seiner gesamten Netzinfrastrukturkosten aus. Der finanzielle Vorteil eines Kategorie-5-Systems gegenüber einer Kategorie-6-Verkabelung liegt nur noch im Pfennigbereich. Hier sollte der Sicherheitsaspekt einer Kategorie-6-Lösung im Vordergrund stehen, was die Unterstützung zukünftiger High-speed-Applikationen betrifft... L AN line 12/2000 ”Die Stecksysteme müssen optimal auf das Kabel abgestimmt sein“, verdeutlicht Hans-Ulrich Roos LANLINE: ...warum dann nicht gleich auf “Fiber to the Desk” umschwenken? HANS-ULRICH ROOS: Möglich wäre es sicherlich. Aber hier muss entsprechend des konkreten Anforderungsprofils genau nachgerechnet werden. Die erhöhten Kosten liegen hier weniger auf der Verkabelungsseite, noch sind im Prinzip die aktiven Netzwerkkomponenten für ein Glasfasernetzwerk deutlich teurer. Zum anderen stellt sich die Frage, was mit der Telefonie gemacht werden soll. Will ich Telefon auch über Ethernet betreiben? Dann bräuchte ich einen Konverter etc., etc.. Wenn ich die Telefonie mit einbinden will in meine strukturierte Gebäudeverkabelung, so wie sie auch angedacht ist, dann gilt immer noch: im tertiären Bereich Kupfer, in der Steigzone für die Telefonie Kupfer und für die Datenübertragung Fiber. LANLINE: Wann kommen die neuen Standards für Kupfer 7? HANS-ULRICH ROOS: Kategorie 6 und Kategorie 7 werden im Verlauf des kommenden Jahres verabschiedet. Nach meiner Einschätzung wird es eher der Herbst sein. Zur konkreten Situation: Die IS 11802 Version 2 ist als CD Committee Draft for Enquiry vor kurzem rausgeschickt worden. Im Moment kann man noch in einem Zeitraum von sechs Monaten, die Ende Januar 2001 ablaufen, technische, generelle und “editorielle” Kommentare abgeben. In der nächsten Phase wird es eine deutlich kürzere Abstimmungsphase geben, in der dann überwiegend nur noch “editorielle” Änderungswünsche berücksichtigt werden. Im dritten Quartal des Jahres könnten dann die neuen Kabelstandards in der europäischen Norm EN 150 173, Ausgabe, 2001, und der internationalen Version ISO/IEC 11801, Ausgabe 2001, verabschiedet werden. Beide Dokumente sind komplett neu redigiert worden und technisch völlig kompatibel, sogar zu den TIA/EIA-Ausgaben. Die Inhalte sind zum Teil unterschiedlich, weil man zum Beispiel in Europa an entsprechende EU-Richtlinien gebunden ist. Es wird somit eine europäische und eine internationale Kategorie-6-Kabelnorm geben. Für mich hat Kategorie 6/Klasse E die deutlich besseren Chancen, sich am Markt als der Industriestandard für hausinterne Gebäudeverkabelung für die nächsten zehn Jahre durchzusetzen. Alles, was nach Kategorie 6 an Standards für Hausverkabelung kommt, hat mit Kupfer nichts mehr zu tun. Hier sehe ich auch die physikalischen Grenzen im Wesentlichen ausgereizt. LANLINE: Erwarten Sie noch Änderungen an der Kategorie 6 Norm? HANS-ULRICH ROOS: Nein. LANLINE: Wann kommt der Kategorie-7-Standard? HANS-ULRICH ROOS: Zur gleichen Zeit wie die anderen neuen Kabelstandards, wobei bei Kategorie 7 die Stecksystemnorm noch nicht eindeutig definiert ist. Es gibt zwei Stecksystemvorschläge, die wohl beide auch standardisiert werden. Fraglich ist, welcher der beiden Entwürfe letztlich das Rennen machen wird. Der RJ45-kompatible Steckervorschlag wird wohl eher rausfallen, weil hier die wichtigsten Fragen noch nicht beantwortet sind. Im Prinzip können noch bis Ende des Jahres entsprechende Verbesserungen nachgereicht werden. In der Februar-Sitzung 2001 des ISO/IECJTC1-SC25-WG1-Standardisierungsgremiums in Nizza werden diese Vorschläge dann besprochen und eine definitive Entscheidung getroffen. Ich rechne mit einem Zuschlag für das nicht mit RJ45 kompatible Stecksystem. Offene Frage der Kategorie 7 müssen bis dann auch gelöst sein. LANLINE: Vielen Dank für das Gespräch. (Christian Zillich/rhh) www.lanline.de netzMARKT DURCHBLICK AUF ALLEN EBENEN Panorama einer Netzlandschaft Mit dem Optiview-Integrated-Network-Analyzer bringt Fluke Networks sicher mehr als einfach nur ein neues Produkt. Die Integration von Funktionen wie Datenverkehrsanalyse, RMON2-Probe, Datenpaket-Dekodierung, Fernsteuerung über Web und aktive Fehlererkennung in einem kleinen, portablen Gerät schafft eine neue Spezies integrierter Analyse-Werkzeuge. Das Manko in der heutigen Netzwerkanalyse besteht in drei schwerwiegenden Mängeln: – Ingenieure erhalten zu viele Daten und zu wenig Reaktionen, – fest installierte Lösungen sind nur begrenzt einsetzbar und – der Netzwerkmanager gewinnt mit jeder Lösung nur einen teilweisen Überblick. So beschreibt es Peter Iten, European-Marketing-Manager für den Bereich Network-Test bei Fluke Networks anlässlich der Vorstellung des Optiview-Integrated-Network-Analyzer in München. In den klassischen Netzwerkstrukturen seien die bisherigen ProtokollAnalyzer für die Netzwerkanalyse ausreichend gewesen – die Switch-Technologie hätte den Standard-Protokoll-Analysator jedoch vollkommen ineffizient gemacht. “Es folgte die Einführung von Elementmanagern, 20 L AN line 12/2000 RMON-Probes und anderen Insellösungen. Daraus ergab sich, dass die Benutzer verstärkt mit Produkten konfrontiert wurden, die nicht so leicht zu integrieren waren, nur einen teilweisen Überblick gaben und unter Umständen für weniger erfahrene Kräfte unverständlich wa- ren”, argumentiert Iten. “In vielen Fällen hielten die Benutzer nach teuren, schwer zu implementierenden Netzwerkverwaltungssystemen Ausschau, um die einzelnen Komponenten miteinander zu verbinden. Dies führte jedoch nur in begrenztem Maße zum Erfolg”. Diese Situation sei für Fluke Networks, seit Mai dieses Jahres übrigens eine eigene Division bei Fluke, Anlass gewesen, über eine “neue Sicht auf das Netz” nachzudenken. Herausgekommen ist nun ein Gerät, das im Grunde vier bislang meist getrennte Funktionsblöcke in seiner grafischen Oberfläche integriert: Protokollanalyse mit Paketdatenerfassung, Dekodierung und Kontexterkennungsfilter, die Funktionen üblicher Handgeräte mit Netzwerkstatistik, Fehlererkennung und Kabeltests, der PC als Networking Tool mit Telnet, Terminal-Emulation, MIB-Browser und Web- Vielseitige Sicht aus einem einzigen Gerät: Der Optiview-Analyzer versteht sich als erster Vertreter einer neuen Spezies integrierter Analysewerkzeuge Browser sowie die Datenzentrale des Netzwerkmanagement-Systems mit RMON/RMON II (Auslastung, Kollisionen, IP-Adressen, Protokoll-Infos etc.) und Web-Fernsteuerung. “Optiviews Integration von aktiven, passiven und bis auf Bit-Ebene reichenden Analysefunktionen gibt einen Überblick, der mit einem herkömmlichen Protokollanalysator nicht erzielbar ist”, so Matthew Hebb, ehemaliger Vice President und General Manager der Sniffer Business Unit bei Network General (heute Vice President für Forschung und Entwicklung bei Concur Technologies). Der Optiview-Analyzer ist eine integrierte Lösung, die verschiedenste Datenquellen wie etwa SNMPAgenten, RMON2-Probes, Web-Schnittstellen und Telnet anzapft beziehungsweise nutzt. Der sich öffnende Blick auf das Netzwerk hat es in sich: Protokollanalyse auf allen sieben Schichten des ISO-Modells, die aktive Fehlererkennung, SNMPGeräteanalyse, RMON2-Datenverkehrsanalyse und eine Analyse auf physikalischer Ebene. Sofort nach dem Einschalten sammelt Optiview Daten aus einer Vielzahl von internen und externen Quellen und zeigt die Ergebnisse der Netzwerktests gleichzeitig auf dem Display. Dieses Display ist ein berührungssensitiver Farbbildschirm mit grafischer Benutzeroberfläche. Dieselbe Benutzerschnittstelle soll sich laut Fluke auch präsentieren, wenn man mit Hilfe eines StandardWeb-Browsers von einem www.lanline.de netzMARKT PC aus auf den Optiview zugreift. Die Echtzeitüberwachung und Fehleranalyse über einen PC sollen die Anschaffung des Optiview besonders rentabel machen: Bis zu sieben Benutzer können so gleichzeitig mit einem einzigen Gerät arbeiten. Das Optiview ist für den mobilen Einsatz konzipiert – über eine stationäre Version für den 19-Zoll-Schrank denkt man derzeit bei Fluke noch nach. “Fest installierte Lösungen sind für bestimmte Situationen zwar ideal, ihre Implementierung ist an bestimmten Standorten allerdings oftmals zu teuer, es sei denn, wir sprechen von wichtigen Hochgeschwindigkeitsverbindungen wie den Backbones”, so Mark Mullins, Private-NetworksMarketing-Manager bei Fluke Networks. “Oftmals benötigen die Netzwerktechniker allerdings die visuelle Darstellung wie sie RMONProbes beziehungsweise Analyzer an anderen Standorten innerhalb des Netzwerks liefern.” NETWORK INSPECTOR FÜR DOKUMENTIERUNG Inte- griert im Optiview ist der Fluke Network Inspector. Er ist für die Dokumentierung des gesamten Netzwerks mit Fehleranalysen und zeitlichen Darstellungen verantwortlich. Der Network Inspector ermittelt Daten aus SNMP/RMON-Devices (einschließlich dem Optiview selbst) zur Trendanalyse. Bei ernsten Problem im Netz kann sich der Anwender des Optiview durch die Benachrichtigungsfunktion des Network Inspectors auto- 22 L AN line 12/2000 Internationalisierung erweitert Radware positioniert sich neu kennung, 7-Layer-Statistik und Netzwerk-Fehleranalyse mit SNMP kostet 16.900 Euro, Optiview Pro mit intelligenten Programmfiltern, Protokollerfassung und -dekodierung, RMON2 und 100Base-FX-Schnittstelle ist für 20.300 Euro zu haben und Optiview Pro Gigabit mit denselben Funktionen wie die Standard- und ProAusführungen aber zusätzlich mit einer EinzelportGigabit-Ethernet-Schnittstelle (GBIC) – bislang übrigens ausschließlich mit Glasfaseranschluss, Kupfer soll im ersten Quartal 2001 folgen – geht für 31.100 Euro über den Ladentisch. (Stefan Mutschler) Mit Matthias Frey als CAPIPromoter will die CAPI-Association ihre internationale Präsenz ausbauen. Ziel ist es, die Common-ISDN-API (CAPI) außerhalb Deutschlands als Schnittstellenstandard für die Entwicklung leistungsfähiger ISDN-Applikationen stärker zu etablieren. In den “traditionellen” ISDN-Ländern Westeuropas hat sich die CAPI schon lange als Standard zur Programmierung “ISDN-fähiger” Anwendungen etabliert. Derzeit gibt es kaum eine Anwendung für ISDN, die nicht auf CAPI basiert. Mit dem steigenden internationalen Interesse an ISDN möchte die CAPI-Association nun CAPI als Schlüssel-Technologie sowohl für Kommunikationstechnik-Anbieter als auch für Hersteller von Anwendungs-Software und Systemintegratoren der wachsenden ISDN-Industrie bekannt machen. Um dieses Ziel zu erreichen, wird die CAPI-Association nun mit Matthias Frey durch einen erfahrenen Telekommunikationsexperten unterstützt. In einem ersten Schritt ist eine Recherche von Märkten geplant, die gerade neue Netze aufbauen (Fernost, Südamerika, etc.) und den Einsatz von ISDN planen – womit die Grundlage für den Einsatz von CAPI geschaffen ist. Der nächste Schritt ist die Kontaktaufnahme mit Unternehmen, Institutionen und Organisationen in diesen Ländern, denen die Vorteile der CAPI-Schnittstelle als Mittel zur Markterschließung näher gebracht werden sollen. (sm) Der israelische Anbieter von Intelligent-Traffic-Management-(ITM-)Lösungen Radware sah Anlass für eine Kurskorrektur, verbunden mit einer Image-Politur. “Unglaublich vielfältige Ressourcen sind nur einen Mausklick entfernt und fordern täglich die Loyalität der Online-Kunden für das Internet-Geschäft. Die Beziehung zwischen Service-Providern und ihren Kunden sind ein wichtiger Schlüssel zum Erfolg in der vernetzten Welt”, so Christian Sauer, General Manager bei Radware in Deutschland. “Unsere Kunden müssen sich trotz Netzwerkunsicherheiten durch Ausfälle, Engpässe und Sicherheitslücken auf dem Markt behaupten. Für sie ist wichtig, dass der Endkunde bekommt was er will – zur rechten Zeit, in kürzester Zeit, zu jeder Zeit.” Vor diesem Hintergrund hat sich Radware nun zur Aufgabe gemacht, seine Kunden zu unterstützen, IP-Services besser, schneller und zuverlässiger als bisher zu liefern. Dazu will Radware Service-Providern und Unternehmen die nötigen Werkzeuge in die Hand geben. Erstes Produkt dafür ist der neue Application-Switch, der auf Hochverfügbarkeit, Fehlertoleranz und Redundanz zur Optimierung von IP-Traffic getrimmt sein soll. Im Zuge der Weiterentwicklung des Unternehmens präsentiert sich Radware auch optisch in einem neuen Outfit. (sm) Info: Fluke Deutschland Tel.: 0561/9594-0 www.flukenetworks.com Info: CAPI-Association e.V. Tel.: 089/32151-863 Web: www.capi.org Info: Radware Tel.: 089/93086-230 Web: www.radware.de matisch eine E-Mail zusenden lassen. In Verbindung mit Microsoft Visio soll der Network Inspector außerdem das komplette Netzsegment grafisch darstellen. Fluke bietet Optiview in drei Ausführungen an: Das Optiview-Standardmodell mit automatischer Fehlerer- Peter Iten, European Marketing Manager bei Fluke Networks: ”Die Switch-Technologie erfordert neue Analyse-Tools.” www.lanline.de netzMARKT NEUAUSRICHTUNG BEI ATI IP als das Maß aller Dinge Eine Änderung seiner Strategie hat sich der Transceiver- und Medienkonverter-Spezialist Allied Telesyn (ATI) verschrieben: Das Unternehmen will Bild 2. An der Schnittstelle zwischen “LAN und Sonet/SDH” reduziert ein Flaschenhals die Übertragungsbandbreite sich als “Network Systems Company” positionieren und dadurch sowohl im IP-Bereich als auch im Breitband-Telekommunikationsmarkt eine Rolle spielen. Dabei kommen mit DSLAMs und die DTM Leitungs- und Paketvermittlungs-Technologien der nächsten Generation zum Einsatz, um die zentralen Glasfaser-Übertragungsstrecken der Service-Provider-Netze mit Firmen-LANs und Breitbandnetzen für den privaten Bereich zu koppeln. Simply connecting the IP World – so lautet die Devise hinter der Neuorientierung als “IP-Company” von Allied Telesyn. Diese Marschrichtung erläuterte der President und CEO von Allied Telesyn, Dr. Francesco Stramezzi, auf einer Pressekonferenz in München. “Wir machen zwar immer noch zirka 30 Prozent unseres Umsatzes mit Transceivern und Medienkonvertern, doch der Bereich Switches legt massiv zu. Allein in Europa” – so zitiert Stramezzi das Marktforschungsunternehmens Dell Oro – “handelt es sich dabei in diesem Jahr um ein Gesamtvolumen bei den Layer-3-Switches von 1400 Millionen Dollar.” Große Chancen sieht Stramezzi bei den Lösungen für 24 L AN line 12/2000 Breitband-Netzzugänge. Hier habe bei Allied Telesyn bereits die Auslieferung der auf Ethernet basierenden Lösungen begonnen. Das Kon- zept des Unternehmens nutzt mit Ethernet und IP die beiden dominierenden Netzwerktechnologien und kombiniert diese mit Switching-, Routing- und Medienkonverter-Produkten. Damit lassen sich hochwertige IPDienste auf Service-Provider-, Metropolitan- und Regionalnetzwerken einrichten. Die Schlüsselrolle der Neuorientierung spielen dabei die Layer-3-Switches der Rapier-Familie und die DSLAM- und DTM-Switching-Lösungen zur Zu- Bild 1. Den Bereich der Metropolitan Area Networks kennzeichnet ein explosionsartig steigender Bandbreitenbedarf (Quelle: RHK Oktober 1999) sammenfassung von Breitbanddiensten und zur Integration in traditionelle Sonet/SDH-Netzwerke. Die von Allied Telesyn favorisierten Breitbandlösungen basieren auf der xDSLund DTM-Leitungsvermittlungs-Technologie und lassen den Aufbau echtzeitfähiger Netzwerke zu, da ein Pufferungsprinzip – wie es beispielsweise bei ATM notwendig ist – entfällt. Weil der Anwender die benötigte Bandbreite selbst festlegen kann und er deshalb nicht an die vorgegebene Priorität eines Pakets gebunden ist, ergibt sich ein weiterer Vorteil von DTM. Als Resultat verspricht der Chief Technology Officer von Allied Telesyn, Dick Wilson, einen höheren Durchsatz für den heutigen Breitbandbereich, in dem 80 Prozent der Applikationen höchste Priorität verlangen. Außerdem hat die xDSL-Lösung den Vorteil, nicht unbedingt auf ein ATM-Netz angewiesen zu sein. “Die Konvergenz beider Segmente des Telekommunikationsmarkts, nämlich Sprach- und Datenübertragung, wird durch den förm- www.lanline.de netzMARKT lich explodierenden Bandbreitenbedarf von Großunternehmen, Klein- und Mittelbetrieben sowie priva- Die Ethernet-Switches für Layer 2 und 3 sowie die modularen Router von Allied Telesyn fassen bei- Bild 3. Dick Wilson, der CTO von Allied Telsyn: “der Einsatz von xDSL und DTM führt zu einem höheren Durchsatz für den heutigen Breitbandbereich, in dem mittlerweile bereits 80 Prozent der Applikationen die höchste Priorität verlangen.” ten Anwendern vorangetrieben”, meint Andreas Beierer, der bei Allied Telesyn als Marketingdirektor für Zentral- und Osteuropa verantwortlich zeichnet. Generell teilt Dick Wilson heutige Netzwerklösungen in drei Kommunikationsebenen auf: – Die Zugangsebene umfasst Netzwerkkomponenten, die den Desktop mit einem Verteilerknoten verbinden. Die Lösungen für diesen Bereich beinhalten eine Reihe von Netzwerkadaptern und Medienkonvertern einschließlich DSL-Konverter, Hubs und Layer-2-Switches sowie einfache Access-Router für ISDN oder “Leased Line”. – Der Verteilerbereich gewährleistet die Verbindung mit dem WAN durch Verknüpfung der Netzwerkelemente für den direkten Zugriff – eine Art virtueller Speicher für alle Kommunikationsdienste. 26 L AN line 12/2000 spielsweise die vielen dezentralen Datenkanäle (-Leitungen) zu einem gemeinsamen Backbone zusammen. – Die Transportebene verbindet Netzwerkknoten, entlastet die Verteiler und vervollständigt die Verbindung. Die Hauptaufgabe lautet hier: eine effiziente Handhabung der Datenübertragung. Der Datenstrom muss an bestimmten Punkten für den Transport aufgeteilt werden können. Dieser Bereich wird meist mit einer Ringtopologie wie Sonet implementiert. Die Technologien DTM (Dynamic Synchronous Transfer Mode) und WDM (Wave Division Multiplexing), ergänzt durch Konverter für WAN-Verbindungen, unterstützen dieses zentrale Netzwerk. Das Netzwerk kann Entfernungen innerhalb einer Stadt in einem Metropolitan Area Network (MAN) abdecken. Mehrere ringförmige Transportebenen, die miteinander verknüpft werden, können den Transport landes- oder weltweit ausdehnen. Mit der Vorstellung seiner Rapier-Familie meistert Allied Telesyn den Einstieg in den Markt für leistungsfähige Layer-3-StandaloneSwitches. Bestückt mit ASIC-Technologie, nutzt diese Familie von FastEthernet-Layer-3-Switches auch das Know-how von Allied Telesyn auf dem RouterSektor zur Realisierung einer blockierungsfreien und mit Wire-Speed arbeitenden IPSwitching-Lösung. Diese verfügt über optionale Gigabit-Uplinks und direkte WAN-Anbindungen und wird mit einem Einstiegspreis von 6000 Mark zu einem regelrechten Kampfpreis angeboten. Zu den Funktionen des “Rapier 24” gehört beispielsweise neben einer Ausstattung mit 24 10/100Base-TX-Ports und zwei frontseitigen Einschubmöglichkeiten für optionale Gigabit-Ethernet-Uplinks eine Management-Datenverkehrs-Priorisierung gemäß 802.1p, 802.1Q-VLAN-Tagging und IP-RIP/OSPF-Routing. Alle diese Funktionen stehen in einem blockierungsfreien Switch zur Verfügung. Moderne Routing-Protokolle wie IPX, Appletalk, IGMP/ DVMRP, PIM und RSVP sind optional verfügbar. Zu den künftigen für die Einführung im ersten Quartal 2001 vorgesehenen Modellen werden reine GigabitEthernet-Switches für Kupfer und Glasfaser gehören. Sämtliche Modelle werden auch für eine Versorgungsspannung von -48 V DC angeboten werden, um für die Bild 4. Dr. Francesco Stramezzi, President und CEO von Allied Telesyn: “Simply connecting the IP World – so lautet unsere Devise für die Neuorientierung als IP-Company.” Andreas Beierer ist überzeugt, dass Allied Telesyn damit dem “Massenmarkt” den Zugang zum bislang eher “elitären” Layer-3Switching ebnet. gemeinsamen Einrichtungen von Telefongesellschaften und Internet Service-Providern (ISP) gerüstet zu sein. (Rainer Huttenloher) www.lanline.de netzMARKT SIEMENS ICN: STÄRKER RICHTUNG IP Mit neuer Strategie zur Dominanz Der Siemens-Bereich Information Communication Networks (ICN) legt in Sachen IP-Kommunikation noch einmal einen Zahn zu. Ein neues Strategieprogramm soll unter anderem das Portfolio stärken – wo nötig aber auch bereinigen. Die “ICN4P” genannte Strategie sieht vor, in zwei Schwerpunktgebieten – Internet-basierte Konvergenzlösungen sowie Breitbandzugangstechnologien – mit gezielten Verstärkungen die führende Rolle im Weltmarkt zu erobern. Die Ablösung von klassischen Telefonielösungen durch IP-basierte Systeme – bei Siemens etwa durch den Übergang von EWSD-Anlagen hin zu “Surpass” (Netzbetreiber) beziehungsweise von Hicom-Anlagen hin zu “Highpath” (Unternehmensnetze) repräsentiert – soll offenbar noch schneller vorangetrieben werden als bisher. Roland Koch, Vorsitzender des Bereichsvorstands von ICN, betont: “Der Ausbau unserer IP-Geschäfte ist ein wesentlicher Faktor für den Erfolg der Mobile Business-Strategie des Konzerns.” Nach seinen Worten hätten IPGeschäfte im gerade zu Ende gehenden ICN-Geschäftsjahr bereits rund 20 Prozent des Umsatzes ausgemacht, im kommenden Geschäftsjahr sollen es schon über 30 Prozent werden. Um seine Position im IPMarkt auszubauen, will ICN sein Produkt- und Lösungsportfolio künftig stärker fokussieren. Außerdem will sich 30 L AN line 12/2000 ICN verstärkt in drei Wachstumsgebieten engagieren: das Geschäft mit Internet-Routern “Der Ausbau unserer IP-Geschäfte ist ein wesentlicher Faktor für den Erfolg der Mobile-BusinessStrategie des Konzerns.” Roland Koch, Vorsitzender des Bereichsvorstands von ICN (bei Unisphere Networks), die optischen Transportnetze sowie das Integrations- und Lösungsgeschäft mit Netzbetreiber- und Enterprise-Kunden. Neben eigenen Anstrengungen sollen dabei nach den Worten Kochs verstärkt auch Akquisitionen eine wichtige Rolle spielen. Letzteres hebt die in den USA ansässige SiemensTochter Unisphere Networks in eine Schlüsselposition: Sie soll Siemens nämlich die Möglichkeit eröffnen, Aktien als Akquisitionswährung zu nutzen. Vor kurzem hatte Unisphere als eines der ersten Beispiele dafür seine Absicht kund getan, das US-Unternehmen Broadsoft zu übernehmen. Unisphere arbeitet neben der klassischen Router-Technik auch an “Soft-Switch”-Produkten, die künftig einen wesentlichen Teil künftiger IPNetze ausmachen sollen. “Damit ist Unisphere ein wichtiger Teil unseres Schwerpunktgebiets der Internet-basierten Konvergenzlösungen”, so Koch. All diese Maßnahmen sind laut Koch Teil eines umfassenden ICN-Strategieprogramms zur Stärkung des Portfolios und zur Steigerung der Profitabilität. “ICN4P” stehe für “Portfolio + Personal + Prozesse = Profitabilität” – eine Formel, die nicht zuletzt die Mitarbeiter als wesentliche Erfolgsgaranten fördern, die internen und externen Geschäftsprozesse optimieren und damit die Profitabilität des umsatzstärksten Siemens-Bereichs weiter steigern soll. “Das Programm wird mit sofortiger Wirkung unsere strategische Ausrichtung bestimmen und – ähnlich wie das Zehn-Punkte-Programm des Gesamtkonzerns – straff geführt und konsequent in seiner Wirkung verfolgt”, betont Koch. Erste Maßnahmen der Portfoliofokussierung seien bereits eingeleitet, zum Beispiel die Integration der Aktivitäten des bisherigen Geschäftsgebiets “Information and Broadband” in bestehende Abteilungen sowie die Neupositionierung von ATM-Produkten. So wurde die Entwicklung eigenständiger großer ATM-Switches eingestellt – diese gibt es inzwischen nur noch im Rahmen des SurpassProgramms. Bei den mittleren ATM-Switches besteht übrigens nach wie vor die Kooperation mit Newbridge. Außerdem wurden zum Oktober dieses Jahres alle ICN-Aktivitäten im Bereich Breitbandzugang im neugegründeten Geschäftsgebiet “Access Solutions” gebündelt. Hier will man in den nächsten drei Jahren einen Platz unter den drei weltweit führenden Unternehmen einnehmen. Im Rahmen des ICN4P-Programms beteiligt sich Siemens auch am US-Unternehmen Quintus Corporation. Dieses zählt nach Einschätzung von Siemens zu den marktführenden Anbietern von ContactCenter-Software für elektronisches Customer-Relationship Management (eCRM). Siemens investiert hier 72 Millionen Dollar und erhält dafür rund acht Millionen Aktien von Quintus. Siemens wird damit voraussichtlich 19,9 Prozent der Anteile von Quintus halten und außerdem einen Sitz im Board of Directors einnehmen. “Mit diesem Aktionsprogramm wollen wir unseren Erfolgskurs beschleunigen und weiterhin ein überproportionales Wachstum bei Marktanteilen und Ertrag sicherstellen”, so Koch. (Stefan Mutschler) Info: Siemens Tel.: 089/722-0 Web: www.siemens.com/ic/networks www.lanline.de netzMARKT Tedas und Valuesoft Das bis dato zur ProdactaGruppe gehörende Unternehmen Valuesoft geht in den Besitz von Tedas über. Laut einer entsprechenden Vereinbarung übernimmt Tedas rückwirkend zum 01. Juli 2000 sämtliche Anteile an der Valuesoft GmbH. Tedas sieht in dem damit vollzogenen Einstieg in den Router-Markt einen Schritt von großer strategischer Bedeutung, speziell was die internationale Position im Bereich IP-Telefonie-Lösungen betrifft. Komplexere IP-Telefonie-Installationen seien künftig sowohl im Unternehmens- als auch im Internet-Service-Provider-Markt praktisch nur mehr mit entsprechend intelligenten Routern zu verwirklichen. Valuesoft, deren Geschichte auf die 1978 gegründete Hösch-Tochter Mps-Software zurückgeht, bringt hier aus ihrem Geschäft mit Kommunikationslösungen für ISDN- und IP-Netzwerke sowohl Hardware- als auch Software-Know-how mit. Aufbauend auf den ISDN- und DSLRoutern der Gateland-Serie von Valuesoft will Tedas gemeinsam mit den Valuesoft-Ingenieuren Konzepte und neue Produkte entwickeln, die sich vor allem durch ein besonders gutes Preis-Leistungs-Verhältnis auszeichnen sollen. Durch die Akquisition sieht sich Tedas im Stande, künftig sehr schnell leistungsstarke Produkte zu entwickeln. Zudem entstünden zusätzliche Kapazitäten im Bereich Pre-Sales und Support, welche die Marktposition von Tedas noch einmal stärken sollen. Die 30 Mitarbeiter von Valuesoft bilden nach den Plänen ihres neuen www.lanline.de Arbeitgebers in ihren Räumen in Kirchheim bei München künftig den fünften Standort der Firma Tedas – nach Marburg, Landsberg, San José und Dortmund. (sm) Info: Tedas Tel.: Freecall 0800/4020303 Web: www.tedas.com Initiative für drahtlosen Internet-Zugang BT Cellnet, Dell, France Telecom, Fujitsu Siemens Computers, HP, Intel, Motorola, Siemens Mobile, Sonera und Toshiba haben die Gründung der Mobile Data Initiative Next Generation (MDI-ng) bekannt gegeben, um in Zukunft den drahtlosen Zugang zum Internet/Intranet so einfach und alltäglich wie über das Festnetz zu ermöglichen. Die MDI-ng will die bestehenden technischen und wirtschaftlichen Hindernisse benennen und überwinden, die derzeit den drahtlosen Zugriff auf das Internet beschränken. Die Initiative soll vor allem die “Verständigung” (Interoperabilität) zwischen verschiedenen Geräten fördern sowie die Kompatibilität von Lösungen, die Skalierbarkeit von Applikationen zwischen Geräten, die Sicherheit, Zuverlässigkeit und Benutzerfreundlichkeit vorantreiben. Außerdem beschäftigt sich MDI-ng mit dem drahtlosen Zugang über verschiedene tragbare Geräte auf drahtlose Telefonsysteme; ein weiterer Schwerpunkt liegt auf komplementären drahtlosen Technologien wie Bluetooth und Wireless LAN. Ziel ist die schnelle Entwicklung drahtloser Internet-Lösungen für professionelle und private Nutzer. Die neue Initiative findet auch Unter- L AN line 12/2000 31 netzMARKT PERSONALKARUSSELL stützung durch die GSM Association, die die Interaktion zwischen Anbietern, Applikationsentwicklern und Betreibern als wichtigen Bestandteil für die Bereitstellung des mobilen Informationszeitalters sieht, ausgehend von GSM-basierenden Diensten. Technologisch will sich die MDI-ngInitiative auf Packet Switched Wireless Networks konzentrieren, also auf die Übertragung von Daten in Paketen und nicht über Sprachkanäle. Dies ist für GPRS (General Packet Radio Service) sowie die so genannten 3G-Technologien relevant, die GPRS in Europa nachfolgen sollen. Derzeit sind im International Telecommunication Standard 2000 (IMT2000) durch die ITU (International Telecommunications Union) eine Reihe von 3GStandards definiert, zum Beispiel UMTS (Universal Mobile Telecommunications System), die Kombination aus WCDMA (Wide-band CodeDivision Multiple Access) und TD-CDMA (Time-Division Code-Division Multiple Access), EDGE (Enhanced Data GSM Environment) und CDMA2000, die alle Paketüber- DR. KURT KINZIUS, bis Ende Juli 2000 Mitglied des Vorstandes der MANNESMANN A G, hat den Vorstandsvorsitz des Application Service Providers EINSTEINET in München übernommen. Nach dem weitgehenden Abschluss des Integrationsprozesses zwischen MANNESMANN und VODAFONE reizt den 43-Jährigen eine neue Herausforderung. Als Vorsitzender des Vorstandes der EINSTEINET AG will er im jungen Zukunftsmarkt für Application Service Providing in Deutschland und Europa ein neues Unternehmen aufbauen. (sm) Mit sofortiger Wirkung ist GUY M. CAMPBELL zum Chief Executive Officer des Telekommunikationsunternehmens ANDREW CORPORATION ernannt worden. Er folgt FLOYD ENGLISH nach, der inzwischen Chairman of the Board ist. CAMPBELL trat dem Unternehmen im Februar 1999 bei – bereits ein Jahr später war er President. (sm) KARL-HEINZ WARUM, bisher Managing Director Central Europe bei CITRIX SYSTEMS, wurde mit sofortiger Wirkung zum Geschäftsführer des Unternehmens ernannt. WARUM übernimmt die Position des Geschäftsführers von MICHAEL WENDL, der weiterhin als Vice President für die Vertriebsregion EMEA (Europe, Middle East, Africa) zuständig ist. CITRIX SYSTEMS mit Hauptsitz in Fort Lauderdale, Florida (USA), ist ein Anbieter von Application-Server-Software und Basis-Technologien für Application Service Provider (ASP). (sm) WERNER SITTINGER hat bei der DÄTWYLER KABEL+ SYSTEME die Position des Produktmanagers für Verkabelungssys- teme in LWL- und Kupfertechnik übernommen. Als Delegierter in den europäischen und internationalen Normgremien Cenelec und ISO/IEC gilt er als Kenner des Markts und Experte für die Verkabelungsstandardisierung. In seiner neuen Funktion will er auch bei der Entwicklung von Anschlusstechnik mitwirken. (sm) 32 L AN line 12/2000 tragung mit höheren Bandbreiten bieten. Die MDI-ng will die Arbeit der Mobile Data Initiative (MDI) fortsetzen und erweitern, die 1996 von Intel, Ericsson, IBM, Toshiba, Nokia und weiteren Unternehmen gegründet wurde. MDI beschäftigte sich primär mit dem mobilen Computing unter Verwendung drahtloser Telefonsysteme, allerdings beschränkt auf GSM-900- und 1800MHz-Technologien sowie das amerikanische PCS 1900 MHz. (sm) Info: Intel Tel.: 089/99143-0 Web: www.intel.com Switching: Compaq kooperiert Ericsson und die Compaq Computer Corporation wollen gemeinsam Switching-Systeme für das Ericsson AXE-basierte Wireless- und WirelineNetzwerk entwickeln und produzieren. So sollen die neuen Verteilerknoten für Telefonnetzwerke künftig aus einem Compaq Alphaserver mit Tru64-Unix-Technologie bestehen. Durch die Verwendung dieser standardbasierenden, skalierbaren Technologie in seinen zukünftigen AXE-Netzwerk-Switches will Ericsson rasch auf die Bedürfnisse des Markts reagieren und die Kapazitäten Hand in Hand mit der Nachfrage steigern können. “Dieses Abkommen stellt einen wichtigen Meilenstein in der Entwicklung unserer Zusammenarbeit dar. Ericsson und Compaq treffen sich am Schnittpunkt der zwei wichtigsten Trends in der Telekommunikation: dem Wachstum standardbasierender Technologie und der starken Nachfrage bei der Mobilkommunikation”, so Bill Heil, Vice President und General Manager bei der Compaq-Business-Critical-ServerGroup: Das neue Vertragswerk, welches zunächst auf vier Jahre angelegt ist, ergänzt eine bereits bestehende Zusammenarbeit zwischen den beiden Unternehmen. Wichtigstes Element auf Seiten der Ericsson-Switches ist deren Konformität mit der CompactPCI-Architektur (cPCI) von Compaq. Die cPCI-Plattformen von Compaq basieren auf Alpha-Technologie und sind als integrierte Systeme, komplett mit Sekundärspeicher und kommunikationsspezifischen Komponenten, erhältlich. Die Compaq cPCI-Produkte werden weltweit durch Compaq Services supportet. (sm) Info: Compaq Computer Tel.: 0180/3221221 Web: www.compaq.de Amdahl positioniert Mainframes neu Die Amdahl Corporation positioniert sich neu im ServerMarkt: Entsprechend einer neuen Strategie setzt das Unternehmen künftig verstärkt auf Open-Systems-Server. Der Grund dafür: Auch Amdahl musste nun eingestehen, dass Unternehmen schon seit einigen Jahren immer mehr in offene Systemplattformen wie Unix und Windows NT investieren – besonders wenn es um E-Business- und Internet-Anwendungen geht – während der S/390-Markt seit Jahren rückläufig ist. Amdahl ist nun zum Handeln entschlossen. Zwar sollen die derzeitigen auf 31Bit-Architektur basierenden www.lanline.de PERSONALKARUSSELL netzMARKT Ab sofort übernimmt DIRK SCHUMA die Position des Geschäftsführers bei dem Anbieter für CD- und DVD-Technologien SMART STORAGE in Köln. Der 32-Jährige ist für die Erschließung neuer Märkte und Kanäle sowie für das Wachstum der europäischen Büros verantworlich. Außerdem soll er die Marktposition in Europa mit neuen, technologisch hoch entwickelten Produkten ausbauen und fördern. Den Schwerpunkt seines neuen Tätigkeitsbereichs sieht SCHUMA in der Kooperationen mit etablierten Systemhäusern und Software-Herstellern. (sm) JÜRGEN PFITZNER ist neuer Managing Director und European Executive Vice President, Sales and Marketing, von RAPID LINK COMMUNICATIONS. In dieser Funktion zeichnet er für die europäische Business-to-Business-Strategie, einem wichtigen Teil der neuen weltweiten Geschäftsstrategie von RAPID LINK, verantwortlich. PFITZNER leitet von der europäischen Zentrale in Deutschland aus die gesamten Marketing- und Vertriebsaktivitäten in Deutschland und der Tschechischen Republik. Darüber hinaus will der TK-Spezialist die RAPID-LINK-Niederlassungen in weiteren EU-Staaten aufbauen. (sm) IAN WHITING, ehemaliger Director der COMPAQ STORAGE PRODUCTS DIVISION, ist ab sofort neuer Vice President Sales für Europa, den Mittleren Osten und Afrika bei DICA TECHNOLOGIES. Der multinationale Spezialist für Internet-Sicherheit setzt ihn am Firmenhauptsitz in Berlin ein. WHITING kommt im Zuge des geplanten IPO (Initial Public Offering) zu DICA. Im August diesen Jahres fusionierte DICA mit EQUIINET, einem britischen Hersteller von Internet-Server-Appliances. (sm) S/390-Server-Familien Millennium 2000A, 2000C und 2000E sowie die Baureihe Omniflex bis 31. März 2002 weiter produziert und vertrieben werden, die Entwicklung neuer S/390-Systeme mit 64-Bit-Architektur ist jedoch von der Planung gestrichen. Stattdessen besinnt man sich auf sein UnixKnow-how, das über die letzten 20 Jahre hinweg im eigenen Hause aufgebaut wurde. Die Unix-Kompetenz von Amdahl gründet sich auch auf der 1993 begonnenen Diversifizierung: Seitdem vertreibt die hundertprozentige Fujitsu-Tochter große Unix-Server von Sun Microsystems. Die Herausfor- 34 L AN line 12/2000 derung hier: Übertragung des Verfügbarkeits- und Zuverlässigkeitsniveaus von Mainframes in die Open-SystemsWelt. “Der Markt hat sich verändert”, so Stefan Maierhofer, Leiter der Technology Division bei Amdahl Central Europe. “Unternehmen entwickeln kaum noch proprietäre Anwendungen. Heute prägen heterogene, Web-basierte Umgebungen die IT-Systemlandschaft der Unternehmen. Open-Systems-Server müssen für unternehmenskritische Anwendungen den Zuverlässigkeitsgrad von Mainframes erreichen – denn es ist absolut notwendig, dass Anwendungen von Dritt- anbietern und E-Business-Applikationen einwandfrei und rund um die Uhr funktionieren. (sm) Info: Amdahl Deutschland Tel.: 089/49058-0Web: www.amdahl.de Über Nacht zum globalen ISP Der globale Internet-Roaming-Service-Provider Gric hat nun auch in Deutschland eine Niederlassung eröffnet. Durch die Produkte und Dienste von Gric öffnet sich im Prinzip für jeden ISP die Chance, sofort zum weltweiten Anbieter von Internet-Services zu werden. Über die Mitgliedschaft im “Gric-Alliance-Network”, in dem zur Zeit rund 400 Service-Provider aus 160 Ländern vereint sind (zum Beispiel Belgacom, Cable & Wireless, CIX, Germany Net, Mediaways, Nacamar, Teledanmark, Telekom Austria, Deutsche Telekom mit T-Interconnect und World Online), kann er seiner Kundschaft überall, wo mindestens eines der Mitglieder der Allianz einen Einwahlpunkt unterhält, Wählverbindungen zum Ortstarif anbieten. Mit jedem neuen Mitglied steigt also die Attraktivität. Gric hat für dieses System des gegenseitigen Nutzens zum einen eine AbrechnungsSoftware entwickelt, die es jedem Allianz-Mitglied erlaubt, die Inanspruchnahme seiner Infrastruktur durch ein anderes Mitglied diesem in Rechnung zu stellen, zum anderen bietet Gric mit seiner Convergent Services Platform (CSP) eine einheitliche ManagementSoftware, über die jeder Provider sein Internet-Dienstportfolio einrichtet und verwaltet. Zu den Internet-Services, die Gric zur Zeit unterstützt, zählen der weltweite Internet-Fernzugriff sowie VoIP-Dienste wie Phone-to-Phone, PC-to-Phone und Prepaid-VoIP. (sm) Info: Cric Communications Tel.: 08444/91411 Web: www.gric.com Inktomi, Portal, Redback und Sun Die vier Unternehmen aus den Bereichen Internet-Infrastruktur und Internet-Software haben bereits ein Komplettpaket geschnürt, mit dem Anbieter von Breitbanddiensten neue lukrative Dienste wie Videoon-Demand, Live-StreamingMedia und die Vermietung von Software-Applikationen durch einfaches Plug-and-Play einrichten können sollen. Die Lösung erlaubt den Providern, Inhalte teilnehmernah vorzuhalten und zu liefern, die Nutzung der Inhalte zu managen und zu verfolgen, die Teilnehmerkonten zu verwalten und an die Teilnehmer den bereitgestellten Diensten entsprechende Rechnungen automatisch zu verschicken. Das Paket umfasst die Cache- und Inhaltevertriebsprodukte von Inktomi sowie die Plattform für Teilnehmerverwaltung und Rechnungsstellung von Portal Software, die auf Sun-Servern mit Solaris-Betriebssystem und dem Subscriber Management System (SMS) von Redback laufen. (sm) Info: Inktomi Tel.: +1-650/653-4699 Web: www.inktomi.com Redback Networks Tel.: +44-1189834455 Web: www.redback.com Portal Software Tel.: +1-408/572-2409 Web: www.portal.com Sun Microsystems Tel.: +1-650/786-4705 Web: www.sun.com www.lanline.de netzMARKT EXPONET 2000 IN KÖLN Netzwerktrends im Überblick Wer sich schnell einen Überblick über die aktuellen Netzwerktrends verschaffen möchte, hat mit dem Besuch der Exponet 2000 eine gute Gelegenheit dazu. Sie findet vom 21. bis 23. November statt und diesmal erstmals auf dem Kölner Messegelände. Neben zahlreichen Fachvorträgen findet der Besucher an den Ständen der rund 330 Aussteller insbesondere Informationen zu den Themen Verkabelung, Sprach-/Datenintegration und alles rund um das Modethema E-Commerce. Wer sich über Infrastrukturen für E-Commerce-Anwendungen schlau machen will, findet zum Beispiel in der speziell für dieses Thema ausgewiesenen Halle 3.1 Anbieter von E-Commerce-Lösungen und Internet-Dienstleister sowie zum Beispiel den Content-Management-Anbieter 4Content. Sein Mitbewerber Pansite ist allerdings in Halle 2.2. Twinwave, ein Spezialist für das Outsourcing von Intranet- und Extranet-Dienstleistungen wie beispielsweise VPNs, befindet sich dagegen in Halle 1.2. Das heißt, durchgängig ist das Konzept der Themenhalle nicht. Bei den Herstellern der aktiven Komponenten steht die Konvergenz im Vordergrund. So zeigt Cisco auf seinem Stand in der Lichtharfe in Halle 6 als Messe-Highlight Anwendungen für die AvvidArchitektur zur Sprach-, Daten- und Videointegration. 36 L AN line 12/2000 Auch Wireless-LANs und das Sicherheitskonzept Ciscosafe sollen dort wichtige Themen sein. Neben Cisco stellen auch die Deutsche Telekom (in Halle 5.1), 3Com und Nortel Networks (beide ebenfalls in der Lichtharfe) sowie die Cabletron-Tochter Enterasys und Avaya (beide in Halle 3.2) das Thema Sprach-/Datenintegration und Voice over IP in den Mittelpunkt. Auch Eicon Technology (in Halle 2.2) stürzt sich auf Voice over IP und Mobile Computing. Syskonnect Schneider & Koch zeigt in Halle 5.1 einen schnellen Gigabit-Ethernet-Adapter mit Kupferschnittstelle (RJ45) und Siemens (in Halle 3.2) zeigt mit der Kommunikationsplattform Hipath eine mobile E-Business-Lösung mit passender Sicherheitslösung dazu. Ähnlich wie bei den Anbietern von aktiven Komponenten sind auch die passiven Komponenten über alle Hallen verteilt. Dieser Bereich ist ja der traditionelle Kern der Exponet und damit umfassend vertreten. Die meisten Anbieter zeigen Kupfer- und Glasfaserlösungen für Gigabit Ethernet, viele Hersteller von Kupferkabeln warten mit einem 1200-MHz-Kabel auf sowie mit einer MultimediaHeimverkabelungslösung. Auch Klasse-E-/Kategorie-6Verkabelungen sind im Trend. Kerpen beispielsweise stellt in der Lichtharfe von Halle 6 und 7 aus. Dort findet man auch Corning, Krone und die Schrankhersteller Rittal, Schroff und Quante. Die anderen Schrankhersteller wie Apranorm, APW Electronics (ehemals Vero) und Schäfer sind dagegen in Halle 5.1. Und dort befindet sich auch Diamond mit dem neuen F-7000- Steckverbinder für Glasfasernetze und Huber & Suhner mit seinen Highend-Glasfaserlösungen sowie der Dätwyler-Stand. Alcatel ist in Halle 2.2 und tritt dort erstmals als Nexans Deutschland auf. Der Konzern bündelte seine Unternehmensbereiche, die mit Verkabelung zu tun haben (Energie-, Daten- und Telekommunikationskabel sowie der Drahtbereich), in eine selbstständige AG mit rund 18.500 Mitarbeitern und einem geschätzten Jahresumsatz von 4,6 Milliarden Euro. Zu den Produkt-Highlights von Nexans zählen ein zertifiziertes Klasse-E-Verkabelungssystem sowie der für die Normierung der künftigen Kategorie 7 diskutierte Steckverbinder GG45. Acome zeigt ebenfalls in Halle 2.2 spezielle LWLAußen- und -Bändchenkabel. Und in Halle 3.2 präsentiert sich der Kabelhersteller NK Networks erstmals unter dem neuen Namen Draka Multimedia Cable. In dieser Halle befindet sich auch der Stand von Reichle & DeMassari. Die Messgerätehersteller Fluke (in Halle 3.2) und Microtest (in Halle 2.2) zeigen beide die neue Version ihrer 300-MHz-Kabeltester. TTC und Wavetek Wandel Goltermann (Lichtharfe in Halle 6 und 7) werden sich zur Exponet gemeinsam präsentieren und wahrscheinlich schon offiziell unter dem Namen Acterna. Als Highlight gilt hier der WAN-Analyzer Cycloneframe IP Optimizer für Paket- und IP-Daten in Frame-Relay-, HDLC- und PPP-Netzen. Auch Agilent (in Halle 5.1) und die Distributoren Macrotron und TGSTelonic (beide ebenfalls in Halle 5.1) und Magellan Netzwerke (in Halle 3.2) sind mit einem Stand vertreten. Der nachstehende Messeführer soll die individuelle Planung des Messerundgangs erleichtern. Näheres zum umfangreichen Vortragsprogramm und zu den einzelnen Ausstellern lassen sich der Exponet-Website entnehmen. (Doris Behrendt) Info: DC Congresse + Fachmessen Tel.: 01805/356456 Web: www.exponet.de www.lanline.de netzMARKT Messeführer: Exponet 2000 Firma 3Com GmbH 3M Deutschland GmbH 4Content - The Content Broker AG 4D Deutschland Aba Technology GmbH ABC - WebSiteLease AG Abovenet Deutschland GmbH Acome Acotec GmbH ADA - Das SystemHaus GmbH ADC Telecommunications GmbH Adlon Datenverarbeitung GmbH Adolphs GmbH + Co. KG ADS System AG Agilent Technologies Albert Ackermann GmbH & Co.KG Alcatel Kabel AG & Co. Alcatel SEL AG Algol Deutschland GmbH Allied Telesyn International GmbH Almatec AG Amadee AG Amprobe Test Measurement GmbH AMS Technologies GmbH Apra Norm Elektromechanik GmbH Aprisma Management Technologies APW Electronics GmbH Aqueduct Arosoft Network GmbH Asap-Com GmbH Astra-Marketing GmbH AT&T Global Network Services Autonomy Systems Ltd. Avaya Deutschland GmbH AWI Verlag Aktuelles Wissen Azlan GmbH BATM Advanced Communications GmbH BDG Business Development Group Belden Wire & Cable B.V. Beusen Solutions GmbH Billiton internet services GmbH Bintec Communications AG Bitstone GmbH Bluetail AB Böhm Kabeltechnik GmbH BOV Aktiengesellschaft BPS Netbase AG Brain Force Software GmbH Brain Force System & Software Brainworks Computer GmbH BTR Vertriebs-GmbH Bull GmbH Bürodata GmbH Business 2.0 C.Com AG Career Company GmbH CBL GmbH CCM Consult GmbH Cedion GmbH Ch. Beha GmbH Cimco Werkzeugfabrik Cisco GmbH CMP /WEKA Verlag Halle 6/7 5.1 3.1 8.2 3.1 1.2 3.2 2.2 3.1 5.1 2.2 5.1 3.2 1.2 5.1 6/7 2.2 6/7 2.2 6/7 3.2 8.2 3.2 5.1 5.1 3.2 5.1 3.1 5.1 3.2 1.2 1.2 8.2 3.2 6/7 5.1 3.2 2.2 5.1 3.1 3.2 5.1 8.2 3.1 2.2 1.2 3.1 3.1 1.2 3.1 3.2 6/7 2.2 3.1 2.2 3.1 5.1 2.2 3.1 2.2 2.2 6/7 3.2 Stand Lichtharfe 43 Highway East 71 M 47 D 09 M 25 A 12 Highway East 45 H 07 N 11 Highway West 72 D 09 Highway West 72 Highway East 41 Highway 18 A 05 Lichtharfe 55 Central Highway 28 Lichtharfe 8 E 03 Lichtharfe 27 L 06 Highway 95 L 14 A 06 Highway East 92 Highway West 62 B 04 O 28 A 12 L 14 A Highway West 08 Highway West 16 B 07 Highway West 66 Lichtharfe 53 Highway East 77 Highway East 41 H 12 A 03 M 31 L 05 Highway West 78 B 08 M 07 F 03 A 21 O 13 P 01 Highway West 11 M 37 Highway East 39 Lichtharfe 15 D 07 P 36 Central Highway 40 P 01 B 05 Central Highway 23 N 09 F 03 F 03 Lichtharfe 36 K 03 Firma Coax Partners Deutschland GmbH Cobinet GmbH Com.Point oHG Comco GmbH Comcon AG Communication Ware IT-Services AG Compulan Europe Vertriebs GmbH Computerwoche Verlag Comsys Communication Systems GmbH Concord Communications Europe Connection Technology Systems Inc. Contens Software GmbH Deutschland Conwave GmbH Conzen-Lappcom GmbH CoreMedia AG Corning Cable Systems C-Partner Software GmbH CUseeme Networks Cyberotic Media AG Cycos AG D+S Online AG Dafür GmbH Datacore Software GmbH Dätwyler Kabel+Systeme GmbH Defem System AB Dehn + Söhne GmbH + Co. KG Deltacom Ges.f.Datenkommunikat.mbH DeTe Immobilien Detecon GmbH DeTeWe AG & Co. Deutsche Post E-Commerce Services Deutsche Telekom AG Diamond GmbH Discon, DeTeWe Informationss. GmbH D-Link Deutschland GmbH Draka Multimedia Cable Drykom GmbH E.Bootis gmbh Eckmann Datent.Netzw.Telindus GmbH Eco - Electronic Commerce Forum e.V Ecom Internet Technology GmbH EFB-Elektronik GmbH EFB-Elektronik M. Stechmann GmbH EFB-Elektronik Nord GmbH EFB-Soncom GmbH Eicon Technology EKU Kabel & Systeme GmbH & Co. KG Element 5 AG Enterasys Networks/Cabletron Entrada Kommunikations GmbH Ergotron Deutschland GmbH Erico GmbH ES 2000 Errichter Software GmbH ESN Eurodebit Systems GmbH Eurodis Enatechnik Electron.GmbH Euromicron GmbH Euro-Tools GmbH Evidian GmbH Exfo Electro-Optical-Engineering Exody E-Business Intelligence GmbH Extreme Networks B.V. Fibercore Jena GmbH Halle 2.2 3.1 3.1 8.2 3.1 8.2 5.1 3.1 1.2 2.2 3.1 3.1 8.2 5.1 3.1 6/7 3.2 1.2 3.1 2.2 8.2 5.1 1.2 5.1 3.1 3.2 2.2 5.1 3.1 6/7 1.2 5.1 5.1 6/7 5.1 3.2 2.2 3.1 5.1 8.2 3.1 2.2 2.2 2.2 2.2 2.2 3.2 3.1 3.2 1.2 3.1 2.2 3.1 3.2 3.1 5.1 3.2 3.1 6/7 5.1 8.2 2.2 5.1 Stand E 06 P 06 M 16 A 12 M 17 Highway 87 A 14 N 15 Highway 20 Highway West 03 P 28 P 23 B 07 Highway West 80 M 47 Lichtharfe 16 Highway East 53 A 07 O 35 Highway 30 Highway 93 A 08 A 08 Highway East 79 P 19 L 15 D 04 Highway East 90 P 01 Lichtharfe 5 B 13 Highway East 90 Highway East 82 Lichtharfe 5 Highway West 74 Highway East 47 H 05 O 19 Highway West 68 Highway 104 O 32 Central Highway 31 Central Highway 31 Central Highway 31 Central Highway 31 Central Highway 30 Central Highway 38 N 05 Highway West 62 Highway West 10 O 15 F 03 P 32 L 03 O 35 A 04 L 10 M 04 Lichtharfe 15 A 05 D 13 Central Highway 19 B 09 CMT Communications GmbH 3.2 Highway East 41 Fibercraft Opt. Systemtechnik GmbH 5.1 Highway East 82 38 LANline 12/2000 www.lanline.de netzMARKT Firma Fiberlan GmbH Financial Times Deutschland GmbH Fluke Deutschland GmbH FNT - Facility Network Technology Focon GmbH Fomsys Ges. für Fibertechnik mbH Foundry Networks framfab Gebauer & Griller Kabelwerke GmbH Geneon Media Solutions GmbH Genua mbH GHMT GmbH Gira Giersiepen GmbH & Co. KG GISMO mbH Global Crossing Goc Ges. f. optische Communication Going Public Media AG Gordion Network Consulting GmbH Grau Data Storage AG Guntermann & Drunck GmbH GWJ Elektronik GmbH Hellermann Tyton GmbH Hewlett-Packard GmbH Horizont, Verlagsgr. Dt. Fachverlag Hotel Reservation Service Huber + Suhner GmbH Human-Energy-Consulting AG Hyperion Solutions Deutschland GmbH I.T.M. AG I4 Network Europe I-Bus/Phoenix GmbH I-Center Elektrogroßhandel GmbH & Co ID-Pro AG IIEF GmbH Incas AG Infraserv GmbH & Co. Knapsack KG Insight a Division of Memec GmbH Interest Verlag GmbH Ision Internet AG Isis Multimedia Net GmbH&Co KG ISR Information Products i.G. AG Iweco Werbe GmbH IWT Magazin Verlags GmbH Jungmann GmbH Objekt & Design Kaffee Partner AG Karlsruher Versicherung Kerpen Special GmbH & Co. KG Kess DV-Beratung GmbH KKF.Net AG Knürr AG KPNQwest Germany GmbH Krone GmbH L & M GmbH Lampertz GmbH & Co. KG Landis GmbH Lang & Schwarz Gate GmbH LAN-Technik GmbH Laser 2000 GmbH Leoni AG Level (3) Communications GmbH Lightwave Communications GmbH LLynch Meta Medien GmbH LMC-LAN Management Consulting GmbH Locate in Scotland LSI Logic Storage Systems GmbH Lucent Technologies LWP GmbH www.lanline.de Halle 2.2 3.1 3.2 3.2 3.1 5.1 2.2 3.1 3.2 1.2 2.2 1.2 3.2 2.2 2.2 2.2 3.1 2.2 3.2 1.2 5.1 2.2 6/7 3.1 3.1 5.1 1.2 8.2 1.2 3.1 3.1 2.2 2.2 3.2 2.2 3.1 2.2 1.2 3.2 3.2 3.1 3.1 Stand G 09 O 26 L 16 Highway East 47 M 49 Highway West 80 Central Highway 15 P 01 L 07 A 17 E 08 A 25 L 11 G 07 Central Highway 26 G 07 P 32 Central Highway 23 Highway East 53 A 11 Highway West 80 H 18 Lichtharfe 11 O 05 P 10 Highway West 80 A 19 Highway 98 D 10 P 18 P 04 D 15 Central Highway 23 K 07 G 13 O 30 D 06 A 23 Highway East 46 Highway East 35 P 01 O 28 5.1 3.1 3.1 6/7 6/7 3.2 6/7 3.2 6/7 2.2 6/7 3.2 3.1 2.2 5.1 5.1 3.1 2.2 8.2 2.2 3.1 1.2 6/7 3.1 Highway West 68 M 03 P 30 Lichtharfe 23 Lichtharfe 15 K 09 Lichtharfe 39 Highway East 51 Lichtharfe 35 H 06 Lichtharfe 29 K 11 N 03 Highway East 42 Highway West 80 Highway East 69 P 01 H 04 B 02 Central Highway 29 M 39 A 08 Lichtharfe 03 P 12 ▼ MESSEFÜHRER EXPONET LANline 12/2000 39 netzMARKT MESSEFÜHRER EXPONET Firma Macrotron Systems GmbH Madge Networks GmbH Magellan Netzwerke GmbH Mannesmann Arcor AG & Co. Mannesmann Telecommerce Marconi Communications GmbH Media Secure Consult GmbH Mediascape Communications AG Medienhaus-Verlag Mentor Technologies GmbH Methode Fibre Optics Europe Metropolitan Express Train GmbH Microsens GmbH & Co. KG Microtest GmbH MMS Communication AG Mobilcom E-Business GmbH Moomax GmbH MSD Computersysteme GmbH MSG at.Net GmbH Mulder-Hardenberg GmbH Multi-RAK Nadis GmbH Nedstat GmbH Net Investor Verlag GmbH Netcor Vertriebs GmbH Netopic GmbH Netsiren Ltd. Nettraffic Internet Perform. GmbH Network Associates Networks Unlimited AG Next Page, LC Nicos AG NK Networks & Services GmbH Nortel Networks Dtl. GmbH NTT Advanced Technology Corporate N-TV Nachrichtenfernsehen GmbH&CoKG Oki Systems GmbH Omnitron Griese GmbH Optel GmbH Orgavision Software Otra Deutschland Technik Support Pandacom GmbH Panduit Ltd. Pansite GmbH PCS AG PDV-Systeme GmbH Pedion Medicalnet Pennwell Corporation Phoenix Contact Pinacl Communication Systems Ltd. Pironet AG Plan.Net Polytec GmbH Propress Verlagsgesellschaft mbH Pyramid Computer Systeme GmbH QS Communications AG Quante AG Quante Netzwerke GmbH Radiodetektion GmbH Ortungstechnik Ratiodata IT-Lösungen & Services Reichle & De-Massari GmbH RIT Technologies Ltd. Rittal-Werk GmbH & Co. KG S.E.S.A. AG Schäfer Gehäusesysteme GmbH Schorisch Energy GmbH Schroff GmbH 40 LANline 12/2000 Halle 5.1 3.2 3.2 3.2 2.2 6/7 3.2 2.2 3.1 8.2 1.2 5.1 2.2 2.2 3.1 3.1 3.1 3.1 2.2 3.2 5.1 3.1 3.1 2.2 5.1 3.1 3.1 3.1 3.2 3.1 3.1 3.2 6/7 5.1 3.1 5.1 3.1 3.1 2.2 2.2 5.1 5.1 2.2 3.1 1.2 3.1 1.2 3.2 2.2 8.2 8.2 3.1 Stand A 05 Highway East 41 J 02 Highway East 35 Central Highway 24 Lichtharfe 31 Highway East 53 D 03 O 36 D 15 Central Highway 13 ..45 Highway West 76 H 08 D 05 M 27 M 20 P 33 P 20 Central Highway 25 Highway East 53 A 10 M 35 M 18 D 08 Highway West 80 O 17 O 11 M 10 Highway East 53 N 09 M 06 Highway East 47 Lichtharfe 4 A 06 P 32 B 03 M 43 M 43 Central Highway 29 Central Highway 17 Highway East 73 A 07 E 04 M 15 C 16 P 01 A 27 L 12 E 05 Highway 89 Highway 100 M 12 2.2 3.2 6/7 6/7 3.2 3.1 3.2 2.2 6/7 8.2 5.1 2.2 6/7 Central Highway 27 Highway East 55 Lichtharfe 40 Lichtharfe 40 L 14 O 28 Highway East 50 Central Highway 36 Lichtharfe 28 Highway 91 B 06 D 15 Lichtharfe 47 www.lanline.de netzMARKT MESSEFÜHRER EXPONET Firma Scientific Computers GmbH Seicom Communication Systems GmbH Serviceplan Werbeagent. Dritte Unit SFG mbH Siemens AG Siemens AG Sitara Networks GmbH Snaz Deutschland Softech Telecom GmbH Solsoft Sony Deutschland GmbH Sophos GmbH Speech Design GmbH Spin GmbH STL Systemtechnik & Logistik Sunrise Telecoming Swyx Communications AG Sycor AG Syskonnect Schneider & Koch GmbH Talkline Infodienste GmbH Tecon Technology & Consulting GmbH Tedas AG Telba Telefonbau Louis Schwabe KG Telegärtner Karl Gärtner GmbH Telem GmbH Telesafe Deutschland TELSA S.R.L. Tenovis GmbH TGS-Telonic GmbH The ATM Forum The Box Communications GmbH TKM GmbH T-Mobile Tolkiehn & Partner T-Online International AG Transition Networks Trend Communications GmbH Trius AG TV1.DE - Der Internet Sender Twinwave Intra-/Internet Serv.GmbH Tyco Electronics AMP GmbH Ulrich Brecher Kommunik.Technik Uni Electro Fachgroßh. GmbH&Co.KG Uni-X Software AG Verlag Heinz Heise Via Net.Works Deutschland GmbH Halle 3.2 1.2 8.2 2.2 3.2 6/7 2.2 3.1 8.2 3.1 1.2 1.2 3.1 3.2 5.1 5.1 1.2 8.2 5.1 3.2 8.2 3.1 5.1 5.1 1.2 2.2 3.2 6/7 5.1 3.2 3.1 2.2 5.1 5.1 5.1 1.2 5.1 2.2 3.2 1.2 3.2 2.2 5.1 5.1 3.1 3.1 Stand K 05 Highway 12 Highway 100 Central Highway 23 Highway West 62 Lichtharfe 12 (+16) Central Highway 33 P 37 C 06 M 29 Highway East 07 A 15 P 40 L 13 Highway West 70 A 05 C 14 C 09 Highway East 71 Highway East 53 D 06 N 11 Highway East 75 Highway West 83 B 08 E 10 L 04 Lichtharfe 32 Highway East 84 L 08 M 05 Central Highway 36 Highway East 90 A 16 Highway East 90 Highway West 15 Highway East 84 Highway 30 L 09 Highway West 06 Highway East 54 Central Highway 36 B 06 Highway 72 O 11 P 21 Vidsoft GmbH 3.2 Highway East 53 Vipcom GmbH 2.2 Central Highway 30 Vision Technologie AG 3.1 M 14 Vitec GmbH 3.1 P 22 VNU Busin.Public. Deutschland GmbH 3.1 P 14 Vogtländisches Kabelwerk GmbH 5.1 B 07 VV Computer Vertriebs GmbH 3.1 O 30 Wavetek Wandel Goltermann GmbH 6/7 Lichtharfe 33 Web2CAD AG 8.2 D 07 Webvision GmbH 3.1 M 13 WGD Datentechnik AG 2.2 Highway 36 Wilhelm Rutenbeck GmbH & Co. 2.2 F 03 Wind River Systems GmbH 8.2 A 11 Winstar Communications GmbH 2.2 F 08 Winterheller Software GmbH 8.2 A 16 World Online GmbH 1.2 B 05 Xtend Zindler Datentechnik GmbH 3.2 3.1 L 05 P 34 VWD Vereinigte Wirtschaftsdienste www.lanline.de LANline 12/2000 41 netzPRODUKTE/SERVICES VOM MAINFRAME BIS ZUR INTERNET-APPLIANCE Die Server-Familie wächst Mit der Server-Reihe Z-Series900 stellt IBM die ersten Mainframes vor, die von Grund auf für die Bedürfnisse des E-Business ausgelegt sind. Sie wurden entwickelt, um die “praktisch nicht vorhersagbaren” Rechenlasten im E-Business-Zeitalter verarbeiten zu können. Mehrere tausend kleinerer Server können damit durch ein einziges System der Z900-Reihe ersetzt werden. Zusammen mit diesen Geräten debütiert auch ein 64-Bit-Betriebssystem namens “z/OS“ sowie modifizierte Software-Preismodelle. ie nächste Generation von Servern hat IBM mit der E-Server-Familie vorgestellt. Sie bieten laut Hersteller die Zuverlässigkeit und Skalierbarkeit von Mainframes, unterstützen offene Standards für die Entwicklung neuer Anwendungen umfassend und lassen sich in Sachen Kapazität flexibel anpassen. Zur Familie gehören die: – Z-Series: Transaktions-Server für die Verarbeitung unternehmenskritischer Daten, – P-Series: Unix-basierende Server, – I-Series: integrierte UnternehmensServer für Unternehmen mittlerer Größenordnung sowie die – X-Series: Intel-basierte Server mit Hochverfügbarkeits-Technologien, die vom Mainframe stammen. Die gesamte Server-Produktlinie verfügt über Eigenschaften des MainframeComputings. Dazu gehört zum einen die “Capacity Advantage“. Im Rahmen von “Capacity Upgrade on Demand“ (Cuod)Angeboten kann zusätzliche Server-Kapazität mit minimaler Unterbrechungszeit hinzugeschaltet werden. Ein vertikales “Cuod“ erlaubt die Hinzuschaltung zusätzlicher, bereits eingebauter Prozessoren in einem System. Das horizontale Cuod bietet die Möglichkeit, weitere beim Kunden vorinstallierte Server in D 44 L AN line 12/2000 Betrieb zu nehmen, sobald dafür Bedarf besteht. Ein anderer Aspekt aus der Mainframe-Welt kommt mit der logischen Partitionierung (LPAR) ins Spiel. Dabei handelt es sich um die Möglichkeit zur Einrichtung logischer Partitionen in Maschinen der Z-Series und der I-Series, die aber in Zukunft auch für Server der P- und der X-Series verfügbar sein wird. Das Hochverfügbarkeits-Clustering wurde ebenfalls ursprünglich für IBMMainframes entwickelt und spielt nun in die anderen Produktbereiche hinein. Des Weiteren werden entsprechende Technologien wie etwa der “Remote I/O-Support“ (bislang für die Z-Series, die I-Series und die P-Series) für die gesamte Server-Familie zur Verfügung stehen. Zu den Features für mehr Zuverlässigkeit und Fehlertoleranz gehören speziell selbstumschaltende, redundante Komponenten, ebenso wie die im laufenden Betrieb auswechselbaren Komponenten. Speziell für den Bereich der X-Series präsentiert IBM gleich fünf verschiedene “Appliance-Server“. Ihr bevorzugtes Einsatzbereich sind laut Hersteller Internet- und Web-Hosting-Anwendungen. Aufgrund ihrer Vorkonfiguration sollen die Server (auf Basis von Linux oder Windows-2000-Server) innerhalb weniger Minuten in einem Netzwerk betriebsbereit sein. IM FOKUS: E-BUSINESS Mit der Reihe “Z-Series900“ hat man bei IBM erstmals Mainframes voll für den Einsatz im E-Business konzipiert. Damit sollen die nicht vorhersagbaren Belastungsspitzen in E-Business-Anwendungen bewältigt werden. Laut IBM lassen sich damit mehrere tausend kleinerer Server durch ein einziges System der z900-Reihe ersetzen. Im Bereich der Software kommt mit dem z/OS ein 64-Bit-Betriebssystem auf der “Z-Series900“ zum Einsatz. Zudem werden die Software-Kosten künftig aufgrund des tatsächlichen Bedarfs ermittelt und nicht mehr anhand der gesamten Systemkapazität berechnet. Insgesamt bietet die Neugestaltung der Software-Lizenzkosten den Anwendern wesentlich mehr Flexibilität, da insbesondere in E-Business-Umgebungen der Nutzungsbedarf stark schwankt. Die zSeries900 wird ab Mitte Dezember 2000 verfügbar sein. Die z900-Server mit dem Betriebssystem z/OS sind darauf ausgelegt, mit Hochgeschwindigkeitsleitungen an Netzwerke und Speichersysteme angebunden zu werden. Sie lassen sich zudem flexibel aufrüsten, um auch unvorhersagbare Schwankungen der Rechenlast abfangen zu können und insbesondere im Rechnerverbund weitestgehend ausfallsicher zu sein. Dabei können die z900-Server selbst aufgrund benutzerdefinierter Vorgaben in Erfahrung bringen, was die einzelnen Anwendungen benötigen. Sie reagieren selbstständig auf eventuelle Veränderungen. Darüber hinaus ist der z900 in der Lage, sich selbst zu reparieren. Der Server beobachtet sich kontinuierlich selbst, erkennt und behebt Fehler selbstständig, und ermöglicht so den reibungslosen Betrieb der Anwendungsprogramme. Die Fähigkeit, tausende virtueller Server in einer einzigen Maschine laufen zu lassen, macht den z900 zur einer interessanten Plattform für E-Business-Anwen- www.lanline.de netzPRODUKTE/SERVICES dungen und -Aufgaben, beispielsweise bei der Bereitstellung von Software via Internet (ASP – Application Service Providing), bei Internet-Service-Providern und Hosting-Unternehmen. Speziell diese Art von Unternehmen müssen die Rechenlasten einer großen Zahl von Kunden separat abarbeiten und verwalten. Bisher waren dafür eine Vielzahl von Servern und große Investitionen in Gebäude und Infrastruktur notwendig. Ab sofort kann ein einziger z900-Server diese Jobs übernehmen. 0,64 cm3 enthält 35 Chips, die auf 101 Schichten keramischen Glases montiert sind und durch 4226 I/O-Pins mit insgesamt rund einem Kilometer Kabel verbunden sind. Das Modul nutzt die IBMKupfertechnologie zur Herstellung von Halbleitern und enthält 2,5 Milliarden Transistoren. Entworfen von IBMs Chip-Entwicklern, bietet diese Technologie Vorteile in Sachen Leistung, Stromverbrauch und Zuverlässigkeit. sprechender Performance auch eine maximale Entfernung und die gemeinsame Nutzung von NetzwerkSpeichereinheiten. Hinzu kommen Ficon-Direktoren für die Anbindung des “Shark“-Enterprise Storage-Servers. – Verbesserungen des Angebots “Capacity on Demand“, mit dem sich ein z900 im laufenden Betrieb ohne Unterbrechung von einem auf die ma- REVOLUTION BEI DEN SOFTWARELIZENZEN Die z900-Reihe stellt auch eine Revolution bei der Berechnung von Software-Lizenzkosten dar: Der z900 ermöglicht eine bedarfsbezogene Ermittlung. Die neue Preisgestaltung bei Mainframe-Software bringt damit mehr Transparenz in die Kostenkalkulation bei Mainframes, und wird von Unternehmen wie BMC, Candle, Computer Associates, Compuware und Software AG sowie anderen ISVs unterstützt. Große CRM- und ERP-Anbieter wie Siebel, Peoplesoft und SAP haben bereits ihre Unterstützung der z900Plattform mit wichtigen E-CommerceAnwendungen angekündigt. Darüber hinaus werden weitere große E-Business-Software-Unternehmen die z900 unterstützen, darunter Lawson, IMI, Temenos und Trilogy. Im Rahmen der IBM-Unterstützung des unabhängigen Betriebssystems Linux werden künftig tausende von Linux-Anwendungen auf z900-Rechnern laufen können. Gleichzeitig wird die Plattform damit auch für Entwickler zugänglich, die nur wenig Mainframe-Kenntnisse mitbringen. Die Unternehmen Rogue Wave Software und Rational Software sind unter den Software-Anbietern, die bereits spezifischen Linux-Produktsupport für den z900 angekündigt haben. Das Herz des z900 ist das MultichipModul (MCM), das laut IBM weltweit die derzeit höchste Packungsdichte und die am weitesten entwickelte Halbleitertechnologie bietet. Das Modul mit den Abmessungen 12,7 mal 12,7 mal 46 L AN line 12/2000 Nicht für den Einsatz auf dem Schreibtisch gedacht sind die Server der z900-Reihe Quelle: IBM Neue Dimensionen bietet der z900 auch hinsichtlich Rechenkapazität und Sicherheit: – Mehr als 2500 MIPS (Million Instructions per Second) und bis zu 16 Prozessoren. Im Rechnerverbund kann der z900 bis zu neun Milliarden Transaktionen pro Tag durchführen, das entspricht rund 300 Millionen Transaktionen pro Tag für einen einzelnen Server. – 24 GByte/s I/O-Bandbreite – das Vorgängermodell bot nur 8 GByte/s. Die Bandbreite wurde insbesondere für Anwendungen mit hohem Bedarf an I/O-Bandbreite verdreifacht, um die wachsende Menge an Transaktionen und Anfragen im Internet-Zeitalter überhaupt bewältigen zu können. – Weiterentwicklungen der Ficon-Verbindungstechnik ermöglichen bei ent- ximal mögliche Zahl von 16 Prozessoren aufrüsten lässt. – 2000 SSL (Secure Sockets Layer-) Transaktionen pro Sekunde. SSLTransaktionen sind insbesondere für E-Business-Transaktionen von entscheidender Bedeutung, da sie unter anderem sichere Bestell- und Bezahlvorgänge im Internet ermöglichen. – Die Hyper-Socket-Technologie bietet TCP/IP-Verbindungen in Hochgeschwindigkeit zwischen den virtuellen Servern innerhalb eines z900, wodurch praktisch ein Netzwerk innerhalb eines einzigen Servers entsteht. (Rainer Huttenloher) Info: IBM Tel.: 01803/313233 Web: www.ibm.com/server www.lanline.de netzPRODUKTE/SERVICES EXCHANGE 2000 SERVER IN DREI VARIANTEN Blöcke der Dot-Net-Strategie In drei Varianten kommt der Exchange 2000 Server auf den Markt. Die Basisversion “Exchange 2000 Server” eignet sich vor allem für kleine und mittelständische Unternehmen. Der “Exchange 2000 Enterprise Server” soll für größere Firmen passen, die gehobene Ansprüche in puncto skalierbare Kommunikations- und Arbeitsgruppenfunktionen stellen. Und der “Exchange 2000 Conferencing Server” bildet eine Lösung, in der Videoconferencing, Datenversand und computer-gestützte Telefonie integriert sind. in verbreitetes Charakteristikum moderner Unternehmen ist die massive Abhängigkeit von der Kommunikationsplattform. Das war ein Grund für den sehr breit gefassten Betatest, den Microsoft bei Exchange 2000 durchgeführt hat: Allein in Deutschland wurden 6000 “technische Betatests” durchgeführt. Auf einer Pressekonferenz gab der Deutschland-Chef von Microsoft, Richard Roy (Bild 1), den Startschuss für den Exchange 2000 Server und den SQL 2000 Server. Somit steht die endgültige Version von Exchange 2000 bereit zur Auslieferung. Damit hat das Unternehmen weitere Mosaiksteine für seine “DotNet-Strategie” (Bild 2) fertiggestellt. Mit diesem Produkt erweitert Microsoft den Ansatz deutlich, der in den Vorgängerversionen mit Produkten wie Lotus Domino/Notes oder Novell Groupwise um Marktanteile kämpfte. Die Vision bezieht sich dabei auf den “Knowledge Worker”, der seine Informationen überall dort benötigt, wo er sich jeweils befindet. Mit dem “Web-Storage-System” will das Unternehmen diese Vision adressieren. Generell zielt Microsoft darauf ab, die Schranken bei der Zusammenarbeit aufzuheben. Das Web-Storage-System kombiniert die Merkmale und Funktionen des Dateisystems, des Webs und eines Servers für die Zusammenarbeit (Collaboration- E 48 L AN line 12/2000 Server) über einen einzigen Standort, der es ermöglicht, Informationen zu speichern, zu verwalten und darauf zuzugreifen sowie Anwendungen zu erstellen und auszuführen. Er richtet eine Plattform für die Informationsverwaltung ein, die konsistente Suche und Datenkategorisierung umfasst. Dazu integriert es Informationsquellen, indem das “Web-Storage-System”, ein einziges Repository zum Verwalten von E-MailNachrichten, Dokumenten, Web-Seiten und anderen Ressourcen innerhalb ein und derselben Infrastruktur zur Verfügung Bild 1. Den Startschuss für zwei “krass korrekte” (Originalton Stefan & Erkan) Bausteine zur Dot-Net-Strategie gab Richard Roy, der Deutschland-Chef von Microsoft, mit der Vorstellung von Exchange 2000 Server und SQL 2000 Server. stellt. So stehen Offline-Zugriff, RemoteClient-Zugriff sowie die Unterstützung für eine Reihe von APIs zur Verfügung. Darüber hinaus dient das “Web-Storage-System” als Plattform für vereinheitlichtes Messaging, bei dem Knowledge Worker auf persönliche Daten (wie Kalender und Kontakte), sowie E-Mail- und Voice-MailNachrichten zugreifen können. Generell benötigt eine unternehmensbasierte Anwendung drei Schlüsseldienste: – Dateisystemdienste: Damit werden mit Client-Anwendungen wie Office-Dokumente gelesen und geschrieben und Streaming-Daten für Audio und Video gespeichert. Dazu zählt auch ein Datenmodell, das sowohl hierarchische Zusammenstellungen (Ordner) als auch heterogene Zusammenstellungen (Ordner, die beliebige Dateitypen akzeptieren) unterstützt. – Datenbankdienste: Sie sind notwendig für Abfragen, die komplexer sind als diejenigen, die innerhalb des Dateisystems ausgeführt werden. Atomare Aktualisierungen ermöglichen in diesem Zusammenhang den Anwendungen etwa das Anzeigen einer für Benutzer konsistenten Ansicht, wenn die Aktualisierungen mehr als ein Element im “Web-Storage-System” umfassen. – Zusammenarbeitsdienste: sie eignen sich für die Unterstützung von Nachrichtenübermittlung, Kontakten und Kalendern sowie für die Gruppen- und Echtzeitzusammenarbeit. Das Web-Storage-System führt verschiedene Funktionen ein, mit denen ITAdministratoren die Betriebskosten senken und die Produktivität der Benutzer steigern können. Die wichtigste dieser Funktionen ist die Fähigkeit, auf alle Elemente im “Web-Storage-System” über das Protokoll HTTP zugreifen zu können. Mit allen Ordnern und Elementen ist ein eindeutiger, von den Benutzern lesbarer URL verknüpft. Unter Verwendung geläufiger Web-Server müssen Entwickler die HTTP-Anforderung für den Zugriff auf Dateien oder Datensätze aktivieren. Das “Web-StorageSystem” ist standardmäßig so konfiguriert, dass eine automatische Integration mit www.lanline.de netzPRODUKTE/SERVICES Web-Servern erfolgt. Das bedeutet, dass Entwickler keine einzige Codezeile schreiben müssen, um die einzelnen “Web-Storage-System”-Objekte und -Ordner für den Zugriff über einen URL einzurichten. Darüber hinaus kann auf das “Web-StorageSystem” über das “Distributed Authoring and Versioning” (WebDAV), eine Zusammenstellung von HTTP-Erweiterungen, zugegriffen werden. Neben dem Bereitstellen eines Zugriffs über HTTP und WebDAV dient das “Web-Storage-System” als XML-Speicher. Dank der Unterstützung von XML ist es in der Lage, Inhalte im Internet-Standardformat anzuzeigen. Dadurch können IT-Administratoren den Entwicklern, die die im “Web-Storage-System” enthaltene Informationen abfragen und bearbeiten müssen, Datenzugriffsdienste schneller zur Verfügung stellen. Durch die in das “Web-Storage-System” integrierte HTML-Unterstützung können Administratoren den Benutzern einen Web-Zugriff anbieten. Zudem offeriert das System eine automatische HTML-3.2-Ansicht von Objektordnern, indem eine grafische Ansicht eines Ordnern mit Dokumenten unter Verwendung von Eigenschaften aufbereitet wird, die von jedem Ordnerelement befördert werden. Die Vorstellung, aus welchen Bestandteilen sich eine E-Mail-Nachricht zusammensetzt, ändert sich zusehends. Mittlerweile kann eine E-Mail-Nachricht aus einem einfachen Kurztext bis hin zu einer Nachricht mit überaus großen Audio- und Videokomponenten bestehen. Diese Multimediadateien haben die Möglichkeiten der Nachrichtenübermittlung und Zusammenarbeit für zahlreiche Benutzer erweitert, stellen jedoch an das Messaging-System erhöhte Anforderungen. Die Speicherfunktion für Streaming-Dateien des “Web-Storage -Systems” nimmt sich dieser Entwicklung an und ermöglicht so das Speichern sehr großer Nachrichten und Anlagen sowie das Speichern von Multimediadateien. Die Clients können über die Streaming-Datei-Schnittstellen sehr schnell auf Multimediadateien zugreifen, wodurch die Leistungsfähigkeit und Skalierbarkeit eines Systems gesteigert www.lanline.de wird. Das “Web-Storage-System” aktiviert ferner die Streaming-Medienfunktion von Powerpoint 2000, die dank der Powerpoint-Folien als eine Netshow-Datei gespeichert werden können. Der StreamingSpeicher sichert die Integrität der Daten und verringert die Anzahl der erforderlichen Dateikonvertierungen. Da Administratoren mit Hilfe des “WebStorage-Systems” die Unterstützung von Streaming-Medien direkt im System bereitstellen können, entspricht die Verwaltung von Streaming-Ressourcen der Verwaltung beliebiger anderer Typen von Inhalten. INTEGRIERTE KONTEXTINDIZIERUNG UND -SUCHE Dank der “Web-Storage- System”-Technologie können Administratoren die Datenspeicherung auf mehrere physische Datenbanken verteilen. Dieser Ansatz birgt mehrere Vorteile: Wenn mehrere Datenbanken zum Einsatz kommen, um die Größe der einzelnen Datenbanken gering zu halten, kann das “Web-StorageSystem” virtuell wachsen, während Risiken eingeschränkt und die Granularität der Steuerung beibehalten werden. Mit Hilfe mehrerer Datenbanken kann die Sicherungs- und Wiederherstellungszeit verkürzt werden, um das Einhalten von Vereinbarungen auf Dienstebene sicherzustellen. Die Server-Kapazität wird nur durch die Größe des verfügbaren HardwareSpeichers eingeschränkt. Sie können die virtuelle Speicherkapazität des StorageSystems erhöhen, indem Sie die Daten auf mehrere Datenbanken verteilen und den Benutzern dennoch eine einheitliche Oberfläche präsentieren. Auf der Datenbankebene unterstützt das “Web-Storage-System” die Transaktionsprotokollierung. Es verwendet WriteAhead-Transaktionsprotokolle, um die Datenintegrität mittels Redundanzen sicherzustellen und die Sicherheit von Transaktionen zu gewährleisten. Transaktionen, für die die Übergabe erfolgt ist wie etwa das Speichern eines Elements in einem Ordner, werden sicher auf die Datenträger geschrieben. Vorübergehende Unterbrechungen wie ein Stromausfall führen nicht zu Datenverlusten, da die L AN line 12/2000 49 netzPRODUKTE/SERVICES Transaktionsprotokolle zum Wiederherstellen der Daten in den Datenbankdateien verwendet werden können. Auf der Ordnerebene unterstützt das “Web-Storage-System” die Datenreplikation, damit bei Ausfall eines Servers Replikate der Daten auf anderen Servern im tung von Windows 2000 vertraut sind, wird die Verwaltung und Unterstützung des “Web-Storage-Systems” einfach vorkommen, da viele Konzepte identisch sind. Das “Web-Storage-System” ist dabei mit den Sicherheits- und Dateisysteminfrastrukturen von Windows 2000 integriert Bild 2. Zu den Dot-Net-Enterprise-Servern zählen SQL 2000 und Exchange 2000 Unternehmen vorhanden sein können. Darüber hinaus bietet die Ordner-Replikatverwaltung den Administratoren die Möglichkeit, die Belastung durch den Anwendungszugriff gleichmäßig zu verteilen. Durch die Unterstützung mehrerer Datenbanken wird die Zuverlässigkeit im “Web-Storage-System” weiter erhöht. Die Nutzung mehrerer Datenbanken bewirkt, dass ein Ausfall einer Datenbank nur geringe Auswirkungen auf die Gesamtausfallzeit eines größeren Systems hat. Die ausgefallene Datenbank kann wiederhergestellt werden, während die anderen Datenbanken angemeldet und in Betrieb bleiben. Das “Web-Storage-System” lässt sich in einer Windows-2000-Umgebung optimal verwalten. Es kann auf die Konfigurationsinformationen aus dem Active Directory zurückgreifen und unterstützt die von den Windows-2000-Zugriffssteuerungslisten aktivierten Sicherheitseinstellungen. Administratoren, die bereits mit der Verwal- 50 L AN line 12/2000 und kann mit Hilfe von Active Directory und der Microsoft Management Console (MMC) verwaltet werden. SPEZIELLE LÖSUNG FÜR ASP Für ASPs bietet Microsoft eine besondere Erweiterung von Exchange 2000 an: das “Exchange 2000 Hosting Pack”. Es enthält eine Reihe von Bereitstellungsdiensten, die das Management gehosteter Exchange-Server verbessern. Die Dienste übernehmen die automatische Registrierung von Benutzern oder bieten ASP-Kunden die Möglichkeit, über das Web Anwendungen selbstständig bereitzustellen und zu verwalten. Außerdem können Systemressourcen optimal organisiert und zielgenau auf Anwender verteilt werden, wobei erweiterte SicherheitsFeatures vor unbefugten Zugriffen schützen. Der erheblich erweiterte Leistungsumfang hat zur Folge, dass Microsoft erstmals in der Geschichte von Exchange Server seine Preise erhöht. Dafür können Kunden jedoch auf eine deutlich gesteigerte Anzahl von Support-Mitarbeitern bauen: Eine Vervielfachung um das Zwei- bis Vierfache ist laut Aussagen von Microsoft angestrebt. Der Preis für Exchange 2000 Server Enterprise Edition inklusive 25 Client-AccessLizenzen wird künftig schätzungsweise zwischen 15.000 Mark und 16.800 Markt liegen (Paketprodukt inklusive Datenträger und Handbuch inklusive Mehrwertsteuer), das Update wird zwischen 7500 Mark und 8500 Mark kosten. Allerdings beruhen diese Angaben nur auf Schätzungen, da der Fachhandel die Preise selbstständig festlegt. Im Gegensatz zur Vorversion ist bei Exchange 2000 auch das Update der “Client Access License” kostenpflichtig. Ansonsten gilt in Sachen Lizenzierung das gleiche Server/CAL-Modell wie bei Exchange 5.5, Windows 2000 Server und Windows 2000 Advanced Server. Wie in der Vergangenheit benötigt jeder authentifizierte Zugriff auf E-Mail oder weitere Groupware- und Messaging-Services, der von einem PC oder einem anderen Gerät aus durchgeführt wird, eine eigene Zugriffslizenz. Die Exchange 2000 CAL wiederum berechtigt den Benutzer, auf alle drei Produkte aus der Exchange-2000Server-Familie zuzugreifen. SONDERAKTIONEN FÜR ”SME“ Für klei- ne und mittelständische Unternehmen (Small and Medium Enterprises, SME) hat Microsoft in diesem Herbst das Internetund Kommunikationspaket 2000 geschnürt. Es besteht aus Windows 2000 Server inklusive Service Pack 1 und Exchange 2000 Server mit je fünf Client-AccessLizenzen, dem Proxy Server 2.0 und weiteren wichtigen Tools, die einen Umstieg auf neueste Netzwerk-, Internet- und Kommunikationslösungen ermöglichen. Das Komplettpaket kostet 2549 Mark (unverbindliche Preisempfehlung) – dieses Angebot gilt vom 01. Oktober bis zum 31. Dezember 2000. (Rainer Huttenloher) Info: Microsoft Tel.: 089/31760 Web: www.microsoft.com www.lanline.de netzPRODUKTE/SERVICES ADAPTEC USB-XCHANGE IM TEST SCSI-Controller mit USB-Anschluss Wegen des günstigeren Preises sind die meisten Arbeitsplatzrechner mit IDE- statt SCSI-Geräten ausgestattet. Dadurch entfällt nicht nur der teure SCSI-Controller, auch IDE-Festplatten sind deutlich preiswerter als ihre SCSI-Pendants. Allerdings ist IDE nicht so flexibel wie SCSI. So lassen sich beispielsweise keine externen Geräte anschließen. Einen Ausweg bietet SCSI-Spezialist Adaptec nun mit dem USB-Xchange. Dabei handelt es sich um einen SCSI-Controller für den USB-Port. inen Geschwindigkeitsrausch darf man freilich nicht erwarten, schließlich übermittelt der UniversalSerial-Bus die Daten mit maximal 1,5 MByte/s. Da bereits ältere FAST-SCSIPlatten 10 MByte/s auf dem Bus schaffen, ist USB-Xchange zum dauerhaften Nutzen von Festplatten oder anderen schnellen Geräten zu leistungsschwach. Vielmehr soll sich der kleine Controller eignen, um hin und wieder ein CD- E Laufwerk, einen CD-Brenner oder einen Scanner anzuschließen. Das Gerät ist dabei angenehm klein, denn es findet am SCSI-Ende des Kabels im 50-poligen HD-Stecker Platz. Äußerlich ähnelt es dem USB-Connect, welches Adaptec bereits Mitte 1999 vorgestellt, aber letztendlich doch nicht auf den Markt gebracht hat. Einen Adapter für 25-polige Anschlüsse legt Adaptec bei, für die älteren (und immer noch verbreiteten) Da der Controller vollständig in einen SCSI-Stecker passt, ist er sehr mobil. Eine Leuchtdiode gibt an, dass er Daten überträgt. 52 L AN line 12/2000 www.lanline.de netzPRODUKTE/SERVICES Centronics-Buchsen leider nicht. Strom bezieht der Controller wahlweise aus der Terminierungsversorgung des SCSI-Busses oder von der USBSchnittstelle. Steht beides nicht zur Verfügung, muss der Benutzer ein externes Netzteil kaufen und anschließen. Im Test erweist sich die Installation als unproblematisch. Das Setup kopiert die Treiber reibungslos auf den Mac oder Windows-PC. Auf den AppleRechnern sollte MacOS 9.0.4 installiert sein. Ältere Versionen haben Probleme mit dem seriellen Bus (wenn ein USBGerät zu häufig aus- und wieder eingestöpselt wird, kann ein interner Zähler überlaufen). Die Windows-Variante erfordert Windows 95B mit USB-Zusatz, 98, ME oder 2000. Windows 95A, NT und die 16-Bit-Varianten des Betriebssystems kennen den USB nicht und können daher mit dem Controller nichts anfangen. Auf Windows-Rechnern ist die Installation besonders einfach. Das Betriebssystem fragt nach dem Anstöpseln des Controllers nach den Treibern. Der Benutzer muss lediglich angeben, dass sich die Treiber auf einer CD befinden, der Rest geschieht automatisch und die angeschlossenen SCSI-Geräte sind ohne Neustart des Systems nutzbar. Optionen und Einstellungen kennt die Treiber-Software nicht; der Controller ist grundsätzlich terminiert und die SCSIID 7 ist fest eingestellt. Ein kleines Symbol in der Tray-Bar von Windows signalisiert die Datenübertragung. Über dieses Symbol lässt sich der Adapter auch deaktivieren, sodass der Benutzer ihn gefahrlos vom Rechner entfernen kann. Nur geringfügig mehr Arbeit hat der Benutzer am Mac zu erledigen. Hier muss er den Installer von der CD aufrufen und nach dem Abschluss des Setups den Rechner neu starten. Neben dem Treiber richtet der Installer auf dem Mac zwei neue Kontrollfelder ein: SCSI-Probe und USB-Xchange-Switcher. SCSI-Probe dient vornehmlich zum Abfragen des SCSI-Busses (was auch mit dem Apple-System-Profiler möglich ist), aber auch zum Mounten 54 L AN line 12/2000 von angeschlossenen Festplatten. Mit dem USB-Xchange-Switcher kann der Benutzer auswählen, ob der SCSI-Controller für Massenspeicher (etwa MOund ZIP-Laufwerke, Festplatten) oder für “andere Geräte“ (Scanner, Drucker, CD-Brenner etc.) genutzt werden soll. Beispielsweise erscheint ein DVDBrenner im Massenspeichermodus als CD-Laufwerk und kann keine Silberlin- von Rohlingen mit vierfacher Geschwindigkeit (600 KByte/s) erfolgreich war. Angesichts der ohnehin nicht allzu hohen Geschwindigkeit auf dem USB ist es schade, dass Adaptec nicht einmal diese ausnutzt. Ebenfalls eine im Handbuch erwähnte Einschränkung bezieht sich auf die Anzahl der angeschlossenen SCSI-Geräte; so unterstützt USB-Xchange unter MacOS und Windows 2000 momentan maximal ein Gerät. Da der Controller nicht für Server gedacht ist, dürfte die Benutzung von den sieben theoretischen Geräten zwar nicht realistisch sein, aber zwei oder drei Geräte (beispielsweise CDBrenner und Bandlaufwerk) einzusetzen, wäre durchaus nicht praxisfremd. FAZIT Seinem Anspruch – ein flexibler Wie ein gewöhnlicher SCSI-Controller klinkt sich USB-Xchange in ein Windows-System ein ge beschreiben. Leider ist nach jedem Umschalten ein Neustart des Systems erforderlich. Im Test ergaben sich keine Probleme. So erkennt der Mac sowohl HFS- als auch PC-formatierte Dateisysteme auf Festplatten und weder beim Schreiben noch beim Lesen treten Schwierigkeiten auf. Ebenso einfach klappte der Zugriff auf ein CD-Laufwerk. Ebenfalls einwandfrei funktioniert USB-Xchange auf Windows-Systemen. Weder Festplatten, CD-Laufwerke noch CD-Brenner stellten Hürden dar. Auch Geräte mit mehreren LUNs (Logical Unit Numbers) wie CD-Wechsler, kann USB-Xchange korrekt ansprechen. Etwas schwach ist allerdings die Performance. Von den über USB erreichbaren 1500 KByte/s ist der Controller weit entfernt, er schafft gerade einmal 700 KByte/s, also rund die Hälfte des theoretischen Maximums. Dieser Wert ist auch im Handbuch angegeben. Entsprechend klappt es nicht, CDs mit achtfacher Geschwindigkeit (1200 KByte/s) zu brennen, während das Beschreiben Controller für den vorübergehenden Einsatz zu sein – wird USB-Xchange weitgehend gerecht. Mit dem Adaptec-Controller ist es möglich, “mal eben“ ein SCSI-Gerät an einen Windows-Rechner oder Mac zu hängen; Unternehmen können auf lokale CD-Laufwerke in Ihren Arbeitsstationen verzichten und zur Software-Installation ein tragbares CD-ROM mit SCSI-Anschluss verwenden. Auch für den mobilen Einsatz eines CD-Brenners oder eines Scanners ist USB-Xchange geeignet. Allerdings ist zu beachten, dass nicht alle Betriebssysteme USB unterstützen (wozu auch DOS gehört, sodass die Betriebssystem-Installation nicht über diesen Controller möglich ist). Für Streamer ohne variable Bandgeschwindigkeit ist USB-Xchange zu langsam, da diese Laufwerke nur im Verschleiß fördernden Backhitching-Betrieb arbeiten können. Die Beschränkung auf nur ein SCSI-Gerät unter MacOS und Windows 2000 ist zwar ärgerlich, aber kein echtes Manko. Wünschenswert wäre ein Adapter für den Centronics-Anschluss im Lieferumfang. USB-Xchange kostet zirka 80 Dollar. (Andreas Roeschies/mw) Info: Adaptec Tel.: 089/4564060 Web:www.adaptec.com www.lanline.de netzPRODUKTE/SERVICES GLOBAL TRAFFIC DELIVERY DURCH ”GPS“ Die absolute Garantie dank ”GPS“ Mit dem “Hydra Global Positioning System” (Hydra GPS) präsentiert Hydraweb ein Internet-Verkehrssystem im Backbone des Internets, mit dem sich die “Site-Performance” und Web-Transaktionen garantieren lassen. Mit dieser Art des Global Traffic Delivery will man Kosten für fehlgeschlagene Web-Transaktionen verhindern, die sich allein in diesem Jahr auf bis zu 17,2 Milliarden Dollar belaufen sollen. ie heutige Problematik des WebVerkehrs zeigt sich immer dann, wenn ein Anwender versucht, auf eine Site zuzugreifen und dabei mit dem “no page/slow page”-Syndrom konfrontiert wird. Nach einer Studie von Jupiter Communications sind bei 75 Prozent der Sites mit hohem Verkehrsaufkommen Beschwerden aufgrund der langsamen Sei- D tenzustellung von den Benutzern eingegangen; bei 42 Prozent dieser Websites beschwerten sich die Anwender, weil die Seiten nicht geladen werden konnten. Die Studie berichtet auch, dass sich 24 Prozent der Benutzer nach einem Site-Ausfall an andere Dienstleister wenden. Gegenwärtig haben sich die Kunden von Service-Providern quasi eine Versiche- Bild 1. Die Hydra Constellation und die Hydra Probe kommen in einer hierarchischen Architektur zum Einsatz 56 L AN line 12/2000 rungspolice gekauft, indem sie Verträge mit mehreren ISPs unterzeichnen und eigene Service-Level-Agreements abschließen. Damit reduziert sich das Risiko eines Ausfalls. Mit der Vorstellung des Hydra GPS wird laut Hersteller eine neue Generation im Bereich des Global Traffic Delivery eingeläutet. Dieses System eignet sich um Site-Ausfälle zu senken und wird zu einer Reduzierung der nicht eingehaltenen Serviceverträge zwischen ISPs, Hosting-Firmen und Web-Portalen führen. Bei dieser Technologie geht es erstmalig darum, dass der Verkehr vom Backbone des Internets gemanagt wird, womit ein effizientes und letztendlich auch einfach zu bedienendes Zustellungssystem im Web selbst geschaffen wird. Dabei wird der Grundgedanke des Load Balancing erweitert, denn hierbei handelt es sich nicht um eine endgültige Antwort, sondern nur um ein vorläufiges Aufrechterhalten des Verkehrsmanagements im WWW. Das prinzipielle Problem besteht darin, dass im “Inneren des Internets” keine Intelligenz agiert. Mit diesem neuartigen Ansatz soll nun ein Internet entstehen, bei dem der Verkehr wie bei einem Luftverkehrskontrollsystem global gelenkt wird. Das lokale Load Balancing wird in diesem Kontext auch weiterhin erforderlich sein, aber eben nur zu dem Zweck, für den es ursprünglich vorgesehen war – für die lokale Verkehrszustellung. Dazu müssen globale Verkehrszustellungssysteme wie eben das Hydra GPS Hand in Hand mit den vorhandenen lokalen Managementsystemen arbeiten. Um diese Aufgaben zu bewältigen, besteht Hydra GPS aus zwei Geräten, der Hydra Constellation und der Hydra Probe. Eine oder mehrere Hydra Probes (sie belegen eine Höheneinheit im Rack) residieren bei den Content-Servern einer Website. Angeschlossen sind sie über ihre beiden 10/100-MBit/s-EthernetSchnittstellen. Die Hydra Constellations befinden sich typischerweise bei einem POP (Point of Presence). Denn diese Systeme sollen möglichst nahe an der Stelle sein, an der der eigentliche Verkehr – sprich der Re- www.lanline.de netzPRODUKTE/SERVICES quest der Anwender – auftritt. Kommt nun ein Request in traditioneller Art und Weise – sprich von einem Browser aus – in das Netzwerk, dann wird bereits an dieser Stelle die Anfrage an das GPS-System weitergereicht. Das wählt dann den besten Ziel-Server für diesen Request aus – basierend auf Informationen über die zu integrieren, um weitere Dienstleistungen anzubieten, wie zum Beispiel Webcasting und Videostreaming auf Abruf. Außerdem können Provider jetzt mit Unternehmen wie Akamai konkurrieren, die eine Vielzahl von Web-Diensten anbieten, die entsprechende Technologie aber weder vertreiben noch verpachten. Zudem offe- Im typischen Rack-Formfaktor belegen die Hydra-GPS-Systeme nur eine Höheneinheit schnellste Route durch das Netzwerk, das beste Antwortverhalten einer Applikation sowie den Zustand einer kompletten Site. Dadurch ergibt sich eine Art von “ErsterKlasse-Netzwerk”, das logisch über das übrige Netzwerk gelegt wird. Anders ausgedrückt beginnt der eigentliche Routing-Vorgang bereits an den Enden des Netzwerks und nicht erst im ServerZentrum. Dazu wird das Hydra GPS bereits im Netzwerk eines Service-Providers installiert. Von hier aus steht es über einen eigenen “Kanal” in ständigem Kontakt mit der Website, auf der beispielsweise das E-Commerce-Angebot “gehostet” wird. Das Hydra GPS verfügt dabei über einen eigenen Informationskanal zu allen Anwendungen und Servern und bestimmt so den augenblicklichen Zustand von Netzwerk, Server und Anwendungs-Software. Aufgrund dieser Informationen ist ein Unternehmen generell in der Lage, die Routing-Entscheidung auf Basis von noch mehr Informationen – etwa die Belastung auf dem Netzwerk – vorzunehmen. Damit lässt sich die komplette Transaktion beschleunigen. Mit diesem Ansatz sind Network Service-Provider (NSPs) und Web-Hosting-Firmen in der Lage, Site- und Service-Ausfallraten zu senken. Und ISPs wird es ermöglicht, diese Technologie als Plattform zu nutzen und beispielsweise das Caching www.lanline.de riert Hydra GPS – laut Hersteller – im Gegensatz zu Akamai eine Infrastrukturlösung, die nicht allein auf statischen, sondern auch auf dynamischen Content ausgelegt ist. MIT RADIUS INS NETZ Mit Hydra Radius stellt Hydraweb ein weiteres neues Produkt vor, das auf der Systems präsentiert wurde. Es handelt sich dabei um die erste Radius-Lastenausgleichs-Lösung (Remote Authentication Dial In User Service) auf dem Markt. Sie wurde in Verbindung mit den Navis-Radius-Server-Produkten von Lucent Technologies entwickelt und ermöglicht Providern von Einwahlknoten, Breitband- und mobilen Datendienstleistungen Zugangsnetze mit verbesserter Verfügbarkeit und Skalierbarkeit anzubieten. Das Tool reduziert den Radius-Paketverlust und die Anzahl der erforderlichen Übertragungswiederholungen, optimiert die Server-Leistung, verbessert die Fehlertoleranz und vereinfacht die routinemäßige Wartung der Server. Hydra Radius ist sofort verfügbar und für einen Preis ab 12.000 Dollar erhältlich. (Rainer Huttenloher) Info: Hydraweb Tel.: 06150/181516 Web: www.hydraweb.com netzPRODUKTE/SERVICES INHALT PRODUKT-NEWS SPEICHERSYSTEME Speichersysteme: 60 RAID, Backup-Hardware/Software, Speichersubsysteme, Festplatten, optische Speicher, SANs Aktive Komponenten: 64 Bridges, Router, Hubs, Switches, Gateways, NICs, WLANs Management: 65 NOS, System- und Netzwerkmanagement, DBMS, Remote-Control-Software, Dokumentenmanagement, CRM Schutz/Sicherheit: 68 Firewalls, Virenschutz, KryptoProdukte, Authentisierungssysteme, PKI-Lösungen, USVs, Redundanzlösungen Endgeräte: 70 Server, Workstations, NCs, Laptops, PDAs, Drucker, Printserver, Scanner Verkabelung: 71 Kabel-(systeme), Stecker, Dosen, Schränke, Mediakonverter, Monitorzusammenschalter, Mobilar für Server-Räume Messtechnik: 72 Kabeltester, Protokoll-Analyzer, ISDN-ATM-Tester Internet/Intranet: 73 Server und Clients für Internetbasierte Dienste, Web-Server, Browser, E-Commerce, E-Business, Shop-Lösungen, HTML/XML-Editoren Messaging: 74 E-Mail, X.400, Faxlösungen, Verzeichnisdienste, Unified Messaging, EDI Host-Anbindung: 74 Terminalemulationen, Web-to-Host Telekommunikation: 76 ISDN, WAN, DSL-Techniken, Breitbandübertragung, VoIP Super-DLTLaufwerke ausgeliefert Die DLT und Storage Systems Group der Quantum Corporation hat mit der Auslieferung der ersten Super-DLTtape-Bandspeicherlaufwerke begonnen. In diesen Tagen gehen die Geräte der neuen Generation zunächst an Bandbibliothekhersteller wie Advanced Digital Information Corporation (ADIC), Overland Data, Quantum ATL und Storagetek. Im Zusammenhang mit Quantums Customer Engagement Program (CEP) erhielt auch die Compaq Computer Corporation Super DLTtape-Geräte für ausgewählte Kunden – eine Initiative, die sowohl OEM als auch Bibliothekspartner in den Produktzyklus von der Entwicklung bis zur Auslieferung 60 L AN line 12/2000 einbezieht. Die Super-DLTtape-Technologie bietet Abwärtskompatibilität mit der existierenden DLTtape-Produktfamilie und Benchmark DLT1. Wie vorhergehende Generationen von DLTtapeGeräten, soll Super-DLTtape alle führenden Systeme und Plattformen wie Unix, Linux, Netware, Windows NT, Windows 2000 und MacOS unterstützen. Nach Beginn der ersten Auslieferung der SuperDLTtapes mit einer Kapazität von 110 GByte und einer Transferrate von 11 MByte/s für den Midrange-Bereich wird Quantum weitere Standards für Bandspeicherung mit der Super-DLTtape-Familie setzen. (rhh) Info: Quantum Peripherals Tel.: 0041 22-9297626 Web: www.dlttape.com/super M4 Data mit LTO-Library Eine skalierbare Bibliothek für einen Speicherbedarf von bis zu 50 TByte präsentiert M4 Data mit seiner Magfile-Familie, bei der erstmals die LTOTechnologie (Linear Tape Open) zum Einsatz kommt. LTO wurde von IBM, HP und Seagate entwickelt. Es handelt sich dabei um ein offenes Format. Gegenüber anderen Aufzeichnungstechniken erlaubt das wesentlich kleinere und robustere Magnetband ein schnelleres Backup der Daten. Mit Magfile-LTO bietet M4 Data Speicherlösungen, die von der Desktop- und 19-Zoll- von Backup-Datensätzen durchgewechselt werden können. Darüber hinaus ist jedes Modul mit einem separaten Reinigungsband ausgestattet, sodass für die Cleaning-Funktion kein Speicherplatz vergeudet wird. Die Speicherkapazität der von M4 Data eingesetzten LTO-Ultrium-Kassette beträgt 100 GByte unkomprimiert bei einer Transferrate von 10 bis 20 MByte/s. Dies ermöglicht eine komprimierte Durchsatzrate von mehr als 100 GByte pro Stunde und Laufwerk. Das erweiterbare Magfile-LTO-Modul umfasst 24 Kassettenplätze und kann mit einem oder zwei LTO Laufwerken bis zu 2,4 TByte Die LTO-Technologie hält Einzug in die Magfile-Familie Einbauversion, bis hin zur kompletten Enterprise-Lösung maßgeschneidert werden können. Das schnelle Verarbeiten großer Datenmengen in Verbindung mit einfacher Bedienbarkeit erlauben es, alle 24 LTO-Cartridges des Magfile innerhalb weniger Sekunden auszuwechseln. Die Trennung der Datenbestände nach Eingabe- und Ausgabebereichen wird durch Dual-Magazine ermöglicht, während gleichzeitig verschiedene Generationen unkomprimierten Speicherplatz bereitstellen. Bis zu zehn Magfile-Module lassen sich mittels “Maglink” im selben Gehäuse zu einem MagstakLibrary-System zusammenschließen. Der Maximalausbau umfasst 250 Kassettenplätze mit einer Speicherkapazität von 50 TByte komprimiert und bis zu 20 LTO-Laufwerken. (rhh) Info: M4 Data Tel.: 06222/92280 Web: www.m4data.de www.lanline.de netzPRODUKTE/SERVICES SPEICHERSYSTEME Bandbibliothek mit AIT-3-Laufwerken Eine Verdoppelung der Kapazität und der Performance seiner AIT-Lösung “Library Pro” hat Overland Data angekündigt. Dazu stattet der Spezialist für automatisierte Bandspeicherlösungen seine AIT-basierte Tape Library mit den AIT-3-Laufwerken von Sony aus. Die Bandbibliothek kann auf bis zu neun Module aufgerüstet werden und fasst bis zu 20 AIT-3-Cartridges pro Modul. Das ergibt eine maximale native Speicherkapazität von 18 TByte und bis zu 47 TByte bei einer Komprimierung der Daten. Der maximale Durchsatz liegt bei 713 GByte/h (native Daten) und bis zu 1,85 TByte komprimierte Daten. Die Libray Pro eignet sich darüber hinaus für den platzsparenden Einsatz in Racks: Je nach gewünschter Konfiguration und StorageKapazität erreicht sie lediglich eine Höhe von 4 bis 36 U. Die dritte Generation von Sonys Advanced-Intelligent-TapeFormat speichert 100 GByte unkomprimierte Daten bei einer Übertragungsgeschwindigkeit zwischen 11 MByte/s (native). AIT-3-Laufwerke sind rückwärts kompatibel zu AIT1- und AIT-2-Datenträgern und liegen im Standard-5,25Zoll-Format vor. Die Library Pro ist in Overland Datas Garantieprogramm GUTS eingebunden, das Anwendern eine Laufzeitleistung von 99 Prozent und eine Datenwiederherstellung von 100 Prozent über drei Jahre ab Kaufdatum zusichert. (rhh) 80 GByte via Firewire Mit der “1394 External Storage-Lösung” bringt Maxtor ein externes Laufwerk auf den Markt, das mit dem Hochleistungs-IEEE-1394-Interface ausgestattet ist. Dank der IEEE-1394-Schnittstelle, (auch als Firewire oder i.LINK bezeichnet), können Anwender ihr System mit bis zu 80 GByte zusätzlichen Speicher für Backup-Aufgaben ausstatten. Zudem ist diese Lösung HotSwap-fähig und hat eine Datentransferrate bis zu 400 MByte/s. Es stehen Kapazitä- ten von 40 oder 80 GByte zur Verfügung. Für das 40-GByteModell liegt der empfohlene Einzelhandelspreis bei 799 Mark, für das 80-GByte-Modell bei 1199 Mark. (rhh) Info: Maxtor Tel.: 089 / 962419 Web: www.maxtor.com Info: Overland Data Tel.: 089 94490212 Web: www.overlanddata.com www.lanline.de L AN line 12/2000 61 netzPRODUKTE/SERVICES SPEICHERSYSTEME Datensicherung über das NDMP Eine Datensicherung über das plattformunabhängige Network Data Management Protocol, kurz NDMP, bieten Network Appliance und Syncsort mit dem Tool Backup Express. Diese Backup- und RestoreSoftware wird die Filer “F840c” und “F840” sowie das Betriebssystem “Data Ontap 6.0” von Network Appliance unterstützen. Durch Filer-toServer-Backup via NDMP können Daten von den FilerSystemen direkt auf ServerAttached-Tape-Libraries übertragen werden. Ein dynamisches Tape-Drive-Sharing ermöglicht zwischen Filern und Servern eine Auslastung der Backup-Hardware. Backup Express unterstützt eine Vielzahl an Möglichkeiten des Backups von Filern wie etwa das “3-Wege-Backup”: Damit können Anwender die Daten eines Filers auf einem Bandspeichergerät sichern, das an einen weiteren Filer angeschlossen ist. Die Belastung von Bandbreite und Appliances lässt sich so an individuelle Anforderungen anpassen. Laufwerke in Tape Libraries können gleichzeitig von den Filern und von Servern unter Unix, Windows NT und Netware genutzt werden. Über die SAN-Resource-Sharing-Option von Backup Express, kurz SRS, ist das dynamische TapeDrive-Sharing sogar in Storage Area Networks mit mehreren Filern und Backup-ExpressDevice-Servern möglich. Auch die Umstellung der Datensicherung von StorageNetzwerken mit dynamisch zugeordneten Bandspeichergeräten zu Backup-Konfiguratio- 62 L AN line 12/2000 nen mit direkt an die NetappFiler angeschlossenen Libraries wird durch die Kombination der Netapp-Lösungen und Backup Express vereinfacht. (rhh) Info: Network Appliance Tel.: 0800 / 2638277 Web: www.netapp.com MCE mit LTO-Ultrium Ab sofort hat MCE die Linear-Tape-Open-Laufwerke und -Tapes (nach der Ultrium-Version) im Programm. Diese Technologie kommt in IBMs Netzwerk- und SAN-Servern, “Komprimierte Kapazitäten” von bis zu 200 GByte schaffen die LTO-Bandlaufwerke NAS- und SAS-Speichern sowie Bandlaufwerken und Libraries zum Einsatz. Ein LTObasierendes Tape bietet Kapazitäten von bis zu 200 GByte komprimiert und eine Datentransferrate von bis zu 30 MByte/s. Die Bandspeicherprodukte sind skalierbar bis 248 TByte unkomprimiert (bei der Ultra Scalable Tape Library SL 7500). LTO-Ultrium eignet sich besonders für Me- www.lanline.de netzPRODUKTE/SERVICES SPEICHERSYSTEME dien- oder E-Business-Unternehmen, die bessere Verfahren suchen, um große Datenmengen wie etwa digitales Filmund Videomaterial zu archivieren. Mit dieser Technologie können sie die Suche und Wiedergabe von entsprechendem Material problemlos automatisieren. Bei der Verwendung in automatischen Tape-Libraries reduziert LTO Ultrium den komplexen Prozess des Bandwechsels auf wenige Sekunden. Die LTO-Ultrium-Produkte entstammen einer Initiative von IBM, Hewlett-Packard und Seagate, die zum Ziel hat, ein offenes IndustrieStandardformat für digitale Tapes zu schaffen. Die LTO-Ultrium-Laufwerke und -Tapes werden für AS/400-, Unix- und Windows-2000/NT-Nutzer unter dem IBM-Markenzeichen vermarktet und über OEMs vertrieben. (rhh) Info: MCE Computer Peripherie Tel.: 089/60807444 Web: www.mce.de Tapestor DAT 240-Bundle Mit dem Tapestor DAT 240 präsentiert Seagate die jüngste Erweiterung seiner preisgekrönten DDS-Produktlinie (Data Digital Storage). Dieses Bundle basiert auf DDS-4Technologie und besteht aus dem Scorpion 240, einem DDS-4 Autoloader sowie der Veritas-Backup-Exec-Server Solution-Software für Windows NT/2000 und Netware. Darüber hinaus sind im Lieferumfang enthalten: DDS-4Bänder, ein Magazin für sechs Kassetten, eine Reinigungskassette, Software-Utilities www.lanline.de und eine einfache Anleitung in mehreren Sprachen. Das Scorpion 240 kann bei einer 2:1Komprimierung bis zu 240 GByte Daten speichern. Zudem ist das Gerät kompatibel zu allen DDS-1-90-MeterBändern sowie zu DDS-2-, DDS-3- und DDS-4-Bändern. Eine Ausnahme bilden nur die DDS-1-60-Meter-Bänder. Die Utility- und Backup-Software erkennt fast volle oder defekte Bänder und wechselt automatisch zum nächsten Datenband. Der Scorpion-240-Autoloader hat weitere Neuerungen: optimierte Schreib-/Leseköpfe, eine Saphir-Reinigungsklinge und eine Reinigungsrolle in einer versiegelten Kammer. Das Bandlaufwerk hat Datentransferraten von bis zu 5,5 MByte/s, und das mit einer durchschnittlichen Dateizugriffszeit von 15 Sekunden – unabhängig vom Band, auf der die Daten gespeichert sind. Der Scorpion 240 verfügt des Weiteren über einen Bedienungsknopf, mit dem der Operator die Bänder manuell durchladen kann. Ein vierzeiliges LC-Display informiert den Anwender über den aktuellen Stand der Arbeitsabläufe – beispielsweise den Laufwerksstatus oder die Bandposition sowie Lade-/ Entlade-Operation und eventuelle Eingabefehler. Anwender können diese Informationen in Englisch, Französisch, Deutsch oder Spanisch abrufen. Das LED-Display kann darüber hinaus für horizontales und vertikales Lesen eingestellt werden. Die Tapestor DAT-240-Bundle-Lösung wird mit einer dreijährigen Garantie ausgeliefert. (rhh) Info: Seagate Technology Tel.: 0033 1 41861000 Web: www.seagate.com L AN line 12/2000 63 netzPRODUKTE/SERVICES AKTIVE KOMPONENTEN Bandbreitenmanagement für MANs Mit Ironware 7.1 stellt Foundry die aktuelle Version seiner Software für die Layer3-Switches der Big-Iron-Familie vor, die sich durch die “Global-Ethernet”-(GLEN-) Technologie und ein Bandbreitenmanagement auszeichnet. GLEN ermöglicht Metropolitan/Wide-Area-NetworkService-Providern, die BigIron-Switches einsetzen, ihr Serviceangebot durch Virtual Private Networking (VPN) und optimierte MAN-Dienste wie Multi-Tenant-Ethernet und Virtual Co-Location zu erweitern. Dazu unterstützt Ironware 7.1 folgende merkmale: Global Ethernet, bis zu 16 Millionen Super-Aggregated VLANs für VPN-basierte MANs, Services für feste/adaptive Bandbreitenzuweisung und Rate Limiting, neue Funktionen zum Schutz gegen “Denial of Service”Angriffe, erweiterte 4096 Wire-Speed Access Control Lists (ACLs), Network Address Translation (NAT), ein verbessertes VRR (Virtual Router Redundancy) Protokoll, dynamische Trunk- 64 L AN line 12/2000 “Global Ethernet” erlaubt VLANSicherheit Group-Kontrolle, Sicherheitsfunktionen (wie zum Beispiel eine VLAN-basierte Zugriffskontrolle, Autorisierungs- und Accounting-Support für Radius und Tacacs+, RSA-Authentifizierung für Secure Shell sowie Secure Copy Support). Über die Technologie Global Ethernet stehen native BreitbandEthernet-Lösungen in LANs, MANs, regionalen und globalen Netzwerken bereit. GLEN basiert auf der “Layer 2 PoS”(Packet over SONET) Implementierung, die die Vorteile von Ethernet und Sonet verbindet. Mit dieser Technologie können Provider sichere VPN-Services in einer bestehenden Sonet-Infrastruktur anbieten. Serviceanbieter können mit Hilfe der Rate-Limiting- und Rate-ShapingFunktionalität bedarfsabhängig Bandbreite von 256 kBit/s bis 10 GBit/s bereitstellen. QoS-Merkmale wie Paketklassifizierung und -priorisierung, Priority Mapping und Priority Enforcement sichern die Servicequalität und gewährleisten die schnelle, zuverlässige Weiterleitung von Datenpaketen mit hoher Priorität in der gesamten GlobalEthernet-Infrastruktur. Foundry-Kunden mit laufendem Service- oder Supportvertrag können Ironware 7.1 ab sofort kostenlos von der FoundryWebsite herunterladen. (rhh) Info: Foundry Networks Tel.: 089/3742920 Web: www.foundrynet.com Alles in einem Die Funktionen Traffic Redirection, Bandbreitenmanagement, Applikationsschutz und “Applikation Health Monitoring” hat Radware in eine einzige Plattform integriert: Die Syn-Apps-Architektur ist für die gesamte Radware-Produktpalette an Application-Switches verfügbar und kombiniert all diese Punkte in einer ASICbasierenden Switch-Plattform. Syn-Apps eliminiert Netzwerkunsicherheiten und bietet dem Anwender einen kontinuierlichen und sicheren Service. Mit der Integration all dieser Funktionalitäten in einer ITM-Lösung erweitert Radware erstmals die Bedeutung von Internet-Traffic-Management. Zu den Komponenten der SynApps-Architektur zählt das “Applikation Health Monitoring”. Dabei garantiert SynApps mit einer integrierten Funktionsüberwachung dem Benutzer ausfallsichere Dienste physikalischer und logischer Applikationsressourcen. Bei Server-Problemen werden Benutzer an alternative Ressourcen im lokalen oder globalen Netzwerk umgeleitet. Das Health Monitoring von SynApps beinhaltet Tools, die alle IP-Protokolle, Standard-Server-Agents sowie Web-Transaktionen und Inhaltsverifizierung überprüfen. (rhh) Info: Radware Tel.: 089/93086230 Web: www.radware.com www.lanline.de netzPRODUKTE/SERVICES MANAGEMENT Winternal-Toolsuite Die exklusiven Vertriebsrechte für die Winternals Advanced-Software-Tools hat Prosoft Software für Deutschland, Österreich und die Schweiz übernommen. Die Winternal-Tools gliedern sich in die Bereiche “Backup & Repair” (schnelle Fehlererkennung und Fehlerbeseitigung), “File-System-Tools” (FAT, FAT32, NTFS) und “System-Monitoring-Tools” (Analyse und Änderungen bei TCP/IP, Registry und Dateisystem). (rhh) Management von Exchange 2000 Seine Management-Software “bv-Control” hat Bindview für Microsoft Exchange optimiert. Eine Reihe neuer Funktionen sorgt für eine bessere Speicherausnutzung und für einen ausgewogenen Message-Verkehr. Einzelne oder mehrere Postfächer können mittels einfachem Drag and Drop zwischen Standorten, Servern und Containern verschoben werden. Zusätzlich verstärkt “bv-Control für Microsoft Exchange 1.5” die Verfügbarkeit und Performance von Exchange-Servern durch Skripts für Monitoring und Alerting auf Internet Information Server sowie von Antwort- und Verbindungszeiten. Die Management-Software vereinfacht Policies für die Exchange-Konfiguration und Info: Prosoft Software Tel.: 08171/4050 Web: www.prosoft.de Exchange-Option für TNG Unicenter Mit “Unicenter TNG Microsoft Exchange Option 2.0” gewährleistet CA eine höhere Verfügbarkeit für diese Microsoft-Plattform. Dazu verfügt die CA-Software über Funktionen sowohl für die erweiterte Performance-Überwachung als auch für ein zentralisiertes Berichtswesen. Mit Hilfe der Neugents lassen sich eine Vielzahl von Parametern analysieren und mögliche Problemkreise in ExchangeUmgebungen proaktiv erkennen. Eine weitere Funktionalität ist die vereinfachte Verwaltung von ClusterUmgebungen auf Basis von Windows 2000 und Windows NT durch Unicenter TNG. (rhh) Info: CA Computer Associates Tel.: 06151/9490 Web: www.cai.com/offices/germany www.lanline.de L AN line 12/2000 65 netzPRODUKTE/SERVICES MANAGEMENT identifiziert Regeln für die EMail-Speicherung und andere unternehmensspezifische Richtlinien. Zudem analysiert die Software Exchange Transaction Logs, womit sich die Server-Auslastung über eine Vielzahl von Standorten verteilen lässt. Ein effizienteres Exchange-Management wird zudem realisiert durch eine schnellere Ausführung der Anfragen sowie die Bereitstellung einer Web-Konsolen-Schnittstelle, über die Anfragen ausgeführt, Ergebnisse aufgezeigt und Warnsignale erhalten werden können. (rhh) Info: Bindview Tel.: 06102/4375-13 Web: www.bindview.de Management von Remote-Systemen Mit Remoteware 4.0 präsentiert Excellenet die aktuelle Version seiner Remote-Systems-Management-Lösung. Damit sind IT-Manager in der Lage, PCs und POS-(Point-ofSale-)Geräte an entfernten Standorten kontrollieren und warten. Da die Kommunikation über TCP/IP gegenüber asynchronen Verbindungen an Bedeutung zunimmt, bietet Version 4.0 zusätzliche Funktionen für das Bandbreitenmanagement in TCP/IP-Umgebungen. So lassen sich IP-Ports “segmentieren”, das heißt ITManager haben die Möglichkeit, IP-Ports zu gruppieren und bestimmten Clients oder Session-Typen Gruppen zuzuweisen. Damit lässt sich sicherstellen, dass allen Remote-Systemen die notwendige Bandbreite zur Verfügung steht und die Zahl der erfolglosen Ver- 66 L AN line 12/2000 Installation und Inventarisierung von Software unterstützt Remotware 4.0 bindungen reduziert wird. Zudem sind einzelnen IP-Ports Prioritäten zuweisbar. Damit können Administratoren Ports für wichtige Sessions reservieren und sicher sein, dass dafür immer genügend Bandbreite zur Verfügung steht. Zudem wurde bei Remoteware 4.0 die Kommunikation über langsame Verbindungen verbessert. So haben Administratoren die Möglichkeit, Software-Pakete oder Dateien in Segmente aufzuteilen, diese Segmente auf mehrere Übertragungen verteilt an Client-Systeme zu senden und das Paket oder die Datei automatisch zu reorganisieren, sobald alle Segmente angekommen sind. Für den Administrator hat das den Vorteil, dass er die Dauer der Kommunikations-Sessions kontrollieren kann. Remoteware 4.0 verfügt außerdem über Erweiterungen, um Betriebssystemplattformen wie Windows 2000 zu unterstützen. Der Support von Active Directory, Network Load Balancing, Intellimirror und Kerberos-Security ist dabei gegeben. Zudem unterstützt Remoteware 4.0 den Windows Installer und die Inventory Scan Engine. Der Remoteware-4.0-Server läuft un- ter Microsoft Windows 95/98/NT und Windows 2000 und ist direkt über Xcellenet erhältlich. Der Preis für den Remoteware-Server beginnt bei 16.000 Mark. (rhh) Info: Xcellenet Tel.: 0209/1672791 Web: www.xcellenet.com Zentraler Zugriff auf Server Den zentralen Zugriff auf bis zu 256 Server eines Rechenzentrums erlauben die neuen Administrations-Systeme der Marke Cybex. Die Modelle 416 und 424 der Autoview-Familie wurden entwickelt, um die zentrale Steuerung kompletter Rechenzentren von zwei entfernten Arbeitsplätzen zu ermöglichen. Im Einzelbetrieb können so 16 beziehungs- weise 24 Server (bei Kaskadierung mehrerer Geräte bis zu 256 PS/2-, Sun- oder USBkompatible PC) verwaltet werden. Die Modelle der Autoview-400-Serie stellte Avocent Deutschland erstmalig auf der diesjährigen Systems vor. Die beiden jüngsten Server-Managementlösungen aus dem Hause Avocent bieten mehr Flexibilität im Rechenzentrum. Möglich ist nicht nur der Zugriff direkt am Server-Rack, sondern auch von einem Büro weitab vom Standort der Rechner. Mit den beiden Managementlösungen schreitet Cybex der Entwicklung in Deutschlands Rechenzentren voran: Reichte noch vor einem Jahr ein Achtfachumschalter aus, um alle PCs in einem 19-ZollRack zu verwalten, finden nun schon 24 Server Platz in einem dieser Schränke. Dieser Trend wird von Autoview aufgegriffen: Hier ermöglicht ein Gerät mit einer Höhe von nur 45 Millimetern die zentrale Administration von 24 Servern und spart somit die Anschaffungskosten von 24 Monitoren, 24 Mäusen und 24 Tastaturen. Mit Entwicklung der Modelle 416 und 424 stehen Lösungen nun in Versionen mit 8, 16 und 24 Ports sowie als PS/2 oder Multiplattform-Lösung zur Verfügung. (rhh) Info: Avocent/Cybex Tel.: 05204/913481 Web: www.cybex.com Die zentrale Steuerung kompletter Rechenzentren von entfernten Arbeitsplätzen aus bietet die Autoview-Familie www.lanline.de netzPRODUKTE/SERVICES MANAGEMENT W2K und Active Directory verwalten Die Version 4.0 von “bv-Admin für Windows 2000” hat Bindview vorgestellt. Diese Version arbeitet mit einer Web-basierten Benutzeroberfläche, die als erste ihrer Art speziell auf die für Windows 2000, Active Directory und Windows NT erforderlichen Managementanforderungen angepasst ist. Simultan lassen sich auch andere Umgebungen warten. Berechtigte Administratoren können Managementaufgaben ausführen, indem sie unabhängig von einem bestimmten Rechner über einen Web-Browser auf die Konsole zugreifen. Zudem verfügt die Version 4.0 über eine dynamische, rollenbasierte Administration, volle Unterstützung für Active Directory und SQLServer sowie Administration über “Managed Collections”. Durch das Migrationsmanagement von Windows NT, Netware und Exchange 5.5 von einer Konsole aus ermöglicht die Lösung von Bindview den Einsatz von Windows 2000 und Active Directory in weltweit agierenden Unternehmen. Durch die Unterstützung von SQL Server skaliert diese Software bis zu tausenden von Anwendern und Gruppen. Die Management-Software erlaubt zudem eine individuelle Sicht auf das Netzwerk, sodass der Administrator nur die Details sieht, die er verwalten kann. Dadurch wird die Produktivität gesteigert und die Komplexität des Managements eines heterogenen Netzwerks reduziert. Neben der kompletten Unterstützung von Active Directory bietet “bv-Admin für Windows 2000” eine modellbildende www.lanline.de Funktion, die die Active-Desktop-Hierarchie in einer Windows-NT-4.0-Umgebung planen hilft. Diese Modellbildung reduziert das Risiko der Migration und ermöglicht einen effizienten und kosteneffektiven Migrationspfad. Zudem wurden Automation und Scripting durch Verwendung der Windows-2000-Infrastruktur, einschließlich ADSI, COM, XML und anderer .NET-Technologien von Microsoft, verbessert. Das Management über eine einzige Konsole gibt Netzwerkadministratoren die Kontrolle über die Windows NT-, Windows 2000- und Active-Directory-Umgebungen und die Möglichkeit des gleichzeitigen Managements von Netzwerkinformationen. (rhh) Info: Bindview Tel.: 06102/4375-13 Web: www.bindview.de L AN line 12/2000 67 netzPRODUKTE/SERVICES SCHUTZ/SICHERHEIT Black Box gegen Einbrecher Linogate erweitert die Firewall seiner Internet-Appliance Defendo um Funktionen zur Intrusion Detection. Das zwischen LAN und Internet arbeitende Gerät will damit böswillige Aktionen potenzieller Eindringlinge identifizieren und abwehren. Neben Stateful-Packet-Filtering und Virus-Scanning soll die Appliance nun auch Schutz vor Port-Scans, Denial-of-Service-Attacken, Buffer-Overflow-Angriffen und bekannten Hacker-Tools bieten. Zu diesem Zweck untersucht Defendo eingehende Pakete auf unerwünschte Inhalte und meldet sich beim Administrator per E-Mail, wenn verdächtige Aktionen bemerkt wurden. Auch ausgehende E-Mails untersucht das Gerät, um beispielsweise die ungewollte Verbreitung von trojanischen Pferden zu verhindern. Im Notfall fährt sich Defendo automatisch herunter und trennt damit den Zugang zum Internet. Die Internet Appliance läuft unter Linux und kann mit einem beliebigen Web-Browser administriert werden. Neben einer Firewall arbeiten in dem Gerät zudem ein Web-, E-Mail, DHCP-, DNS- und FTP-Server. Defendo small für bis zu 20 Anwender kostet 2780 Mark, in der Medium-Version für 50 Nutzer sind 3980 Mark fällig. Ohne 68 L AN line 12/2000 Die Internet-Appliance Defendo verfügt nun über Funktionen zur Intrusion Detection User-Limitierung schlägt Defendo mit 7900 Mark zu Buche. (gh) Info: Linogate Tel.: 0821/2596-330 Web: www.defendo.net E-Mail: scholz@linogate.com Sandkasten fürs Netzwerk Sandbox Security macht ihre Desktop-Firewall Secure4u 5.0 netzwerkfähig. Zudem stattet der Hersteller das Produkt mit einem Learning-Mode, Content-Filtering-Funktionen so- wie erweitertem Auditing und Logging aus. Der Secure4uClient überwacht auf Arbeitsstationen unter Windows 95 bis 2000 die Zugriffe von Applikationen auf lokale Ressourcen und auf das Internet und unterbindet diese, sofern eine entsprechende Sicherheitsrichtlinie von dem Administrator definiert wurde. Die gleichen Mechanismen greifen auch bei der lokalen Ausführung von aktivem Content wie Active-X-Controls, Java-Applets, Javascript und Visual-Basic-Script, der in Web-Seiten enthalten sein kann. Der Learning-Mode er- möglicht es dem Administrator, Systemzugriffe einer Applikation während und nach deren Installation zu protokollieren. Anschließend kann er in einer Sicherheitsrichtlinie festlegen, welche dieser Aktionen das entsprechende Programm auf den Arbeitsstationen ausführen darf. Zur Administration klinkt sich die Software in die Microsoft-ManagementKonsole ein. Die Verteilung der Clients erfolgt per Microsoft-SMS, alternativ kann das Programm auch über Zenworks, Intels LAN-Deskmanager oder Netinstall im Netzwerk verteilt werden. Beim Starten des Clients auf den Arbeitsstationen holen sich diese von einem freigegeben Share im Netzwerk die aktuellen Sicherheitseinstellungen ab und wenden diese auf den lokalen Rechner an. Erweitertes Content-Filtering verhindert den Zugriff auf unerwünschte Web-Seiten. Zudem kann die Software E-Mails auf vordefinierte Begriffe hin untersuchen und gegebenenfalls den Versand verhindern. Die AlertFunktion informiert den Administrator bei unautorisierten Zugriffen von Clients auf Netzwerkressourcen. Secure4u Enterprise Edition ist ab sofort in Deutsch verfügbar. Der Preis beginnt ab 156 Mark pro Benutzer. (gh) Info: Sandbox Security Tel.: 089/80070-0 Web: www.sandboxsecurity.com www.lanline.de netzPRODUKTE/SERVICES SCHUTZ/SICHERHEIT Sensible Dateien schützen Die Software Safeguard Privatecrypt von Utimaco verschlüsselt Dateien nach dem neuen Advanced-EncryptionStandard (AES) mit dem Rijndael-Algorithmus. AES ist als Sieger eines Technologiewettbewerbs des amerikanischen National Institute of Standards and Technology (NIST) hervorgegangen und soll den seit 1970 genutzten Data Encryption Standard (DES) ablösen. Der von Privatecrypt verwendete Schlüssel wird durch ein Passwort erzeugt, das der Anwender eingibt. Die Software kann zudem selbstextrahierende Dateien generieren. Zum Auspacken muss der Benutzer lediglich das richtige Passwort eingeben. Privatecrypt läuft unter den 32-Bit-Versionen von Windows und ist für Privatanwender kostenlos auf der Homepage von Utimaco erhältlich. Für Unternehmen kostet die Software knapp 57 Mark. (gh) kurzen Zwischenstop in einem speziellen Rechenzentrum ein. Dort werden sie gefiltert, überprüft, gereinigt und anschließend weitergeleitet. Laut Allasso dauert der gesamte Vorgang maximal 15 Sekunden und ist für den Benutzer nicht wahrnehmbar. Voraussetzung für die Nutzung des Dienstes ist ein auf SMTP basierender Mailserver. Nach der Anmeldung zu E-Scan erhält der Kunde ein Welcome-Paket, in dem die neuen Einstellung für den eigenen Mailserver sowie Anweisungen für den InternetService-Provider beschrieben sind. Über die E-Scan-Homepage kann der Kunde dann sei- ne E-Mail-Sicherheitsrichtlinien gemäß der Unternehmenspolitik konfigurieren. Die einmalige Einrichtungsgebühr für E-Scan beträgt 3200 Mark. Für 100 Nutzer werden weiterhin 7700 Mark pro Jahr fällig. (gh) Info: Allasso Tel.: 089/450660-0 Web: www.allasso.de Info: Utimaco Safeware Tel.: 06171/917-0 Web: www.privatecrypt.de/de/ E-Mail: contact@privatecrypt.com E-Mail-Sicherheit zur Miete Allasso bietet ab sofort über seine Reseller den ManagedSecurity-Service E-Scan an. Der Dienst ermöglicht das Auslagern des gesamten Prozesses der E-Mail-Sicherheitsprüfung an einen externen Service-Provider. Bei Nutzung des Dienstes legen ein- und ausgehende E-Mails auf ihrem Weg zum Empfänger einen www.lanline.de L AN line 12/2000 69 netzPRODUKTE/SERVICES ENDGERÄTE Wartungsfreundlicher Desktop Speziell für den Einsatz in Netzwerken jeder Größe ist der Desktop-PC Optiplex GX150 von Dell gedacht. Dem Administrator kommt das Gerät durch den fast vollständigen Verzicht auf Schrauben im neu entwickelten Optiframe Small-Desktop-Chassis entgegen. Im Inneren des horizontal wie vertikal aufstellbaren Rechners arbeitet Intels 815E-Chipsatz in Kombination mit einem Celeron- oder Pentium-IIIProzessor. Auf dem Motherboard integrierte der Herstel- Der Optiplex GX150 von Dell integriert Grafik-, Sound- und Netzwerkkarte auf dem Motherboard ler einen AGP-Controller, optional kann eine AGP-Grafikkarte auf dem 4xAGPSteckplatz nachgerüstet werden. Den Anschluss an das Firmennetz übernimmt die ebenfalls integrierte 3ComFast-Etherlink-10/100-Netzwerkkarte mit Wake-up-OnLAN-Unterstützung. Die Einstiegskonfiguration mit PIII-800, 64 MByte PC133SDRAM, 10 GByte ATA100-Festplatte, CD-ROM und 17-Zoll-Monitor kostet 70 L AN line 12/2000 2610 Mark. Zum Einführungspreis von knapp 2000 Mark stattet Dell den GX150 bis zum 30. November mit PIII-800, 128 MByte RAM, 20-GB-Festplatte und Nvidia TNT2-4x-AGP-Grafikkarte aus. (gh) Info: Dell Tel.: 01805/224465 Web: www.dell.de Notebook mit Fingerspitzengefühl Ein integrierter Fingerabdrucksensor soll das neue Spitzenmodell der Travelmate-730-Serie von Acer sicherer machen. In Kombination mit dem Sensor ermöglichen die Windows-Programme VBX und Whoisit die Einrichtung von unterschiedlichen Nutzerprofilen mit differenzierten Zugriffsberechtigungen. Eine Kryptofunktion der Software verschlüsselt wichtige Daten auf der Festplatte, die nur identifizierten Nutzern zugänglich gemacht werden. Der Travelmate 739TLV ist mit einem Intel-Pentium-IIIProzessor mit 850 MHz Taktfrequenz, 128 MByte Arbeitsspeicher, 15-ZollTFT-Bildschirm, DVDLaufwerk sowie einer 56KModemund EthernetSchnittstelle ausgestattet. Für rund 11.200 Mark gibt es das Notebook inklusive Windows 2000 Professional. Big-Brother-Freunde werden die Variante mit Windows 98 und Webcam zum selben Preis vorziehen. (gh) Info: Acer Tel.: 0800/22449999 Web: www.acer.de www.lanline.de netzPRODUKTE/SERVICES VERKABELUNG Kategorie-6-Komponenten von Hirose Kompakter Seriell/ Ethernet-Konverter Der japanische Hersteller Hirose stellt mit der TM21Serie Kategorie-6-Anschlusskomponenten auf den Markt, mit denen die Anforderungen der künftigen Klasse E eingehalten werden können. Dabei sollen die NEXT-Werte (NEXT: Nahnebensprechen) weit über den Vorgaben des Standardentwurfs ISO/IEC 11801 liegen. Laut Hirose soll die zugehörige Buchse NEXT-Werte bis 50 dB erzielen. Die Komponenten nehmen Verlege- und Rangierkabel auf und besitzen neue einund zweiteilige Knickschutztüllen für Kabel bis 6,6 Millimeter Durchmesser. Die Reihe auch ein “Guide Plate” für 1,1-mm-Litzen verfügbar sein. (db) Der Single-Port-Konverter MDS-10 von Equinox leitet Daten von seriellen Schnittstellen mit DB25-Anschlusstechnik in ein Ethernet-Netz (10Base-T). Die maximale Datenrate soll bei 115 kBaud liegen, zudem soll der Adapter modemkompatibel sein. Laut Distributor Communiports unterstützt das Gerät TCP/IP, Telnet, SNMP, TFTP und http und arbeitet unter Windows NT 4.0, Windows 2000 sowie Linux. Communiports bietet den MDS-10 für unter 900 Mark an. (db) Info: Hirose Tel.: 0711/4560021 Web: www. Hirose.de Info: Communiports Tel.: 08142/47284-0 Web: www.communiports.de www.lanline.de Die Kategorie-6-Komponenten der TM21-Serie von Hirose TM21-Komponenten kosten im Schnitt etwa doppelt so viel wie die Kategorie-5+Komponenten des Herstellers und sind ab sofort erhältlich. Und ab Dezember soll für die L AN line 12/2000 71 netzPRODUKTE/SERVICES MESSTECHNIK Qualitätssicherung an X.21-Schnittstellen Aurora X.21 von Trend Communications ist ein Zusatzgerät für die ISDN-Tester Aurora Duett und Aurora Sonata des Herstellers. Damit hat der Anwender die Möglichkeit, Bitfehlerratentests nach G.703 (2048 kBit/s ungerahmt) und nach G.704 (1920 und 1984 kBit/s gerahmt) auf Bit-transparenten Standleitungen durchzuführen. Außerdem lassen sich damit laut Hersteller X.21-Endgeräte auf ihre Funktionsfähigkeit hin überprüfen. Auch Funktionstests von E1/X.21Adaptern sind damit möglich. Das Gerät erkennt automatisch die Bandbreite und Takt- satz. Trend Communications bietet das Zusatzgerät bis zur Jahreswende noch zum Einführungspreis von rund 3000 Mark an. (db) Info: Trend Communications Tel.: 089/323009-30 Web: www.trendcomms.com Portabler ProtokollAnalyzer für TK-Netze Das Nethawk-System von Rohde & Schwarz eignet sich für die Protokollanalyse und für Simulationen in Telekommunikationsnetzen. Das System soll tragbar sein und sich aus verschiedenen Einsteckkarten und Software-Tools zusammenset- Expertensystem für ISDN-Analyzer Für seine ISDN-Protokollanalysatoren WatchS0/I (mit 128 KByte RAM), WatchS0/ II (512 KByte RAM) und Watch S2M entwickelte Onsoft das Analyse-SoftwarePaket Pcwatchcom. In diese Software integriert der Hersteller jetzt einen Teil seines Expertensystems mit den bekanntesten ISDN-Fehlerquellen. Tritt bei einer Messung eines dieser Fehlermuster auf, löst die Software eine frei definierbare Aktion aus, sendet zum Beispiel eine SMS-Nachricht an das Handy des Administrators. Zudem erfährt der Anwender vor Ort über das Expertensystem, welche Ursachen diese Störung haben könnte. Die ISDN-Analyzer kosten mit der Analyse-Software zwischen 900 und 3000 Mark. Das Expertensystem ist zur Zeit allerdings nur als Vorabversion erhältlich und soll zur CeBIT 2001 marktreif sein. (db) Info: Onsoft Tel.: 030/390408-0 Web: www.onsoft.de Front- und Rückansicht des Aurora X.21 von Trend Communications Internet-Nutzer an Breitbandnetzen quelle (intern/extern) der angeschlossenen Festverbindung und zeigt sie über LEDs an. Außerdem passt es den Takt an den angeschlossenen Aurora-Tester an. Versorgt wird das Zusatzgerät über den angeschlossenen Tester. Die Aurora-X.21-Geräte sind so groß wie eine CD-Box und eignen sich für den Feldein- Telcos und Service-Provider können sich mit individuellen Parametern an einem Panel beteiligen, das das Verhalten von Internet-Usern untersucht, die über einen Breitbandanschluss verfügen. Damit ist ADSL, Kabel-TV oder Glasfaser gemeint. Netvalue ließ sich für dieses Umfrage-Panel von Emnid entsprechende Internet-User 72 L AN line 12/2000 zen. Es ist für die Entwicklung, Abnahme und Überwachung von Telekommunikationseinrichtungen konzipiert und unterstützt Übertragungstechniken wie GSM, GPRS, DECT, ISDN und W-CDMA. (db) Info: Rohde & Schwarz Tel.: 089/4129-0 Web: www.rohde-schwarz.com auswählen, die sich bereit erklärt haben, eine MonitoringSoftware bei sich am Rechner installieren zu lassen. Über diese Software sammelt Netvalue bei diesen Nutzern die Daten über ihr Verhalten im Internet, wie oft sie beispielsweise EMails versenden oder empfangen, ob und welche Newsgroups oder Chatrooms sie besuchen oder wie oft sie Software vom Web herunterladen oder Audio- oder Video-Streaming einsetzen. Der Indikator “Globale Nutzung” gibt zum Beispiel Aufschluss darüber, welche Websites ein User wie lange besucht und wie groß die Datenmengen sind, die dabei übertragen werden. Außerdem kann Netvalue die Anwender nach verschiedenen Untergruppen sortieren. So ist es zum Beispiel auch möglich, das Verhalten von ADSL-Nutzern mit Anwendern mit herkömmlichem Web-Anschluss zu vergleichen. Die Netz- und Diensteanbieter sollen über diesen “My Broadband Panel” neue Dienste vor dem offiziellen Launch auf Funktion, Inhalt und Effizienz der Netze testen können. Außerdem lassen sich auf der Grundlage des UserVerhaltens neue Produkte und Dienste entwickeln oder WebInhalte oder Partnerstrategien anpassen. Auch die Plattformkonfiguration und die Qualität der Dienste kann der Netzbetreiber darüber optimieren. Die Preise für individuelle Abfragen in diesem “My Broadband Panel” richten sich nach der Anzahl der abgefragten Teilnehmer und nach Art und Anzahl der überwachten Dienste. (db) Info: Netvalue Tel.: 06196/9202-108 Web: www.netvalue.com www.lanline.de netzPRODUKTE/SERVICES INTERNET/INTRANET Web-Filter für Unternehmen Das ursprünglich von Siemens-Mitarbeitern entwickelte Freeware-Tool Webwasher zur Filterung von Werbe-Bannern auf Web-Seiten wird erwachsen. Mit der Enterprise Edition (EE) möchte die ausgegründete Webwasher AG jetzt auch Unternehmen umfassenden Schutz vor Sicherheitsrisiken und unterwünschtem Datenmüll bieten. Webwasher EE arbeitet als Proxy-Server unter Windows NT 4.0, Windows 2000, Solaris und Linux. Zu den Funktionen gehören Filter nach Objektgrößen, Filter nach URLs und Zeichenketten, Popup-Filter, Objektfilter für Bil- www.lanline.de der, Applets, Plug-ins, Scripts, Animationen (GIF, Shockwave, Flash), Negativ- und Positiv-Selektion von Filterkriterien, Zugriffskontrolle für unterwünschte Web-Seiten sowie Cookie- und Webbug-Filter. Die Administration erfolgt über ein Web-Interface. An Optionen bietet der Webwasher eine OPSEC-Schnittstelle, Firewall-1-Integration, ICAPServer, Netcache-Integration, Squid-Ankopplung sowie eine internationale und deutsche URL-Filterliste. Das Produkt ist ab Dezember verfügbar. Preise nennt der Hersteller auf Anfrage. (gh) Info: Webwasher.com Tel.: 05251/50054-0 Web: www.webwasher.com CMS für Windows-Plattform Die Version 3.0 des auf der Microsoft COM-Technologie (Component Object Model) basierenden Content-Management-Systems Schematext kündigt der Nürnberger Hersteller Schema an. Die Software ist in der 3-Tier-Architektur realisiert und besteht aus einer Datenbank, einem ApplicationServer sowie den Clients. Über COM/DCOM können Unternehmen alle Applikationen in das CMS integrieren, die ebenfalls auf der COM-Architektur basieren. Ebenso lässt sich das System mit allen COMfähigen Programmiersprachen wie Visual Basic, Javascript, Perlscript, C++ oder Delphi ansprechen und erweitern. Dynamische Web-Seiten generiert Schematext über einen Web-Server mit COMSchnittstelle wie den Internet Information- Server oder Apache mit PHP4. Schematext produziert neben Web-Seiten auch technische Dokumentationen und Online-Hilfen. Die Einzelplatzversion ist ab 4800 Mark erhältlich. Die Client-/ Server-Variante mit entsprechenden Verwaltungsmechanismen schlägt mit 49.900 Mark für den Server und 23.000 Mark für den Client zu Buche. (gh) Info: Schema Tel.: 0911/586861-0 Web: www.schema.de L AN line 12/2000 73 netzPRODUKTE/SERVICES MESSAGING UND HOST-ANBINDUNG Mobiles Mail-System Mit Skyfile hat Shamrock ein Mail-System auf den Markt gebracht, das in einem LAN oder auch mobil via GSM, Inmarsat, Modem sowie ISDN eingesetzt werden kann. Skyfile wurde zunächst in Zusammenarbeit mit Detesat für Inmarsat-Verbindungen entwickelt, um einen möglichst effizienten Transfer von E-Mails über Satellitenstrecken zu gewährleisten. Dazu nutzt die Client-/Server-basierende Windows-Software eine Online-Kompression und kann Daten in beiden Richtungen gleichzeitig übertragen. Auch ein Wiederaufsetzen innerhalb einer Datei nach Verbindungsabbrüchen ist möglich. In der Satelliten-Erdfunkstelle Raisting hat die Detesat hierzu ein POP3/SMTP-Gateway installiert, das unter anderem Anwendern auf Schiffen oder in entlegenen Gebieten den MailAustausch erlaubt. Shamrock bietet jetzt auch für GSM-, Modem- und ISDNNutzer ein Gateway an, das für bis zu drei Anwender kostenlos aus dem Internet unter www.shamrock.de heruntergeladen werden kann. Versionen für zehn oder 100 Benutzer kosten 440 beziehungsweise 1760 Mark. Über die GatewaySoftware ist eine zentrale Anbindung über einen beliebigen Internet-Provider via POP3/ SMTP möglich. Skyfile unterstützt auch so genannte Softmodems, also virtuelle Modemteiber für Kabel- oder Infrarotverbindungen von GSM-Handys oder für PCMCIA-Adapter. Die MailSoftware soll dank Kompression, bidirektionalem Transfer und dem Verzicht auf Base64- 74 L AN line 12/2000 Codierung von Binärdaten die Übertragungsgebühren um 50 Prozent oder mehr senken. Auch als Mail-Lösung innerhalb eines LANs kann Skyfile fungieren. Die Oberfläche entspricht weitgehend gewohnten Mail-Programmen und erlaubt zusätzlich auch das Senden von SMS-Nachrichten und Telefaxen. (mw) Info: Shamrock Software Tel.: 01387/5882 Web: www.shamrock.de UMS für den Mittelstand Trius hat zur Systems eine UMS-Lösung (Unified Messaging System) für mittelständische Unternehmen vorgestellt. Trius UMS 2000 fasst die Dienste Voice, Fax, SMS, EMail und TTS (Text to Speech) unter der Outlook-Oberfläche zusammen. Die UMS-Lösung wird in verschiedenen Ausbaustufen mit Erweiterungslizenzen von 5 bis 50 Benutzern angeboten. Den Einstieg ermöglicht das 5-User-Basispaket zum Preis von 3468 Mark inklusive der ISDN-Karte Eicon Diva Server BRI. Das System lässt sich in 5, 10 und 20-er Schritten bis zu einer maximalen Anwenderzahl von 50 erweitern. Der Gesamtpreis des voll ausgestatteten Systems mit 50 Benutzern beträgt 9948 Mark. Das Trius-UMS-System arbeitet mit dem ExchangeServer zusammen und integriert neue Eigenschaften und Dienste. So werden etwa Sprachnachrichten aufgezeichnet, die bei Bedarf über ein beliebiges Telefon oder Outlook abgehört oder weitergeleitet werden können. Des Weiteren erkennt das UMS-System auch die Dringlichkeit von Nachrichten und reagiert beispielsweise auf eine wichtige E-Mail mit einer SMS-Info auf das Handy. (mw) User-Windows via Citrix Metaframe oder Windows Terminal Server. Alle drei genannten Alternativen sorgen für eine zentrale Installation und Ressourcenverwaltung. (mw) Info: Trius Tel.: 06175/9377-0 Web: www.trius.de Info: Esker Enterprising Connections Tel.: 0201/82157-0 Web: www.esker.de E-Mail: info@esker.de Komplettpaket für Host-Zugriff Esker bietet mit der neuen Version 11 der ConnectivitySoftware Tun Plus ab sofort PC-to-Host-, Web-to-Hostund Multi-User-Windows-Zugriff in einer einzigen Lösung. Neue Lizenzierungsoptionen ermöglichen es Unternehmen, Tun Plus für jede einzelne oder eine Kombination aller Technologien einzusetzen, diese zentral zu verwalten und bei Bedarf zentral upzugraden. Tun Plus unterstützt in der Version 11 zudem Windows 2000. Die Software umfasst unter anderem mehr als 30 verschiedene Emulationstypen, die den Zugriff auf IBM-Mainframes, AS/400, HP, DEC sowie auf Server, die unter SCO-, Linux und anderen Unix-Versionen gestatten. Des Weiteren ermöglicht die Software den Zugriff auf Datenbanken wie Oracle, Informix, DB2, Sybase, Progress und C-ISAM. Mit den “Customization Tools” kann der Administrator Terminaloder Datenansichten überarbeiten und so für eine Host-Applikation ein Front-end im Windows-Stil erzeugen. Die Funktionen für Emulation, Datenbank und Netzwerk stehen unabhängig von der gewählten Zugriffsmethode zur Verfügung: PC, Web oder Multi- Hostexplorer 7.0 Hummingbird hat die Version 7.0 des Hostexplorers präsentiert. Schlüsselmerkmale der Host-Access-Software sind das neue ActiveX-Interface und die uneingeschränkte Unterstützung für Windows 2000 sowie Microsoft Windows Installer (MSI). Mit Hostexplorer können PC-Anwender über TN3270E,TN5250E-, VT420- und Telnet-Applikationen auf Hostbasierende Daten (IBM-Mainframe, -AS/400, Linux- und Unix-Systeme) zugreifen. Zu den Funktionen der Software zählen Jconfig, ein Java-basierendes FernkonfigurationsTool, ActiveX/COM-, OHIOAPI-Unterstützung, WinHLLAPI/EHLLAPI-Support, Host- und FTP-Profile im Windows Explorer sowie GUILPR-Unterstützung. Neue Features sind unter anderem die uneingeschränkte COM-Kompatibilität, die IBM-3151-Terminalemulation, ein verbessertes Tastatur-Mapping sowie die 5250-Datenübertragung. In der Version 7.0 wurden alle Host-Zugriffsprodukte von Hummingbird in verschiedenen Sprachen lokalisiert. (mw) Info: Hummingbird Tel.: 089/747308-0 Web: www.hummingbird.com www.lanline.de netzPRODUKTE/SERVICES TELEKOMMUNIKATION ISDN-Speed mit Windows CE Die schnelle Datenübertragung via ISDN steht ab sofort allen Anwendern von Endgeräten offen, die Windows CE als Betriebssystem verwenden. Damit ist es den Besitzern von Minicomputern, Palms oder PDAs (Personal Digital Assistants) ab sofort möglich, ihre Datenübertragung per ISDN zu optimieren. Das betrifft zum einen den Datendurchsatz, der durch die Bündelung zweier ISDN-BKanäle bis zu 128 kBit/s erreicht, zum anderen auch die Nutzung der im ISDN verfügbaren Leistungsmerkmale. Basis für die neue Lösung ist die neue Xircom Compactcard ISDN, eine aktive Karte, die durch eigene Rechnerleistung die Arbeitsbelastung des Prozessors im Endgerät verringert und so die Performance erhöht. Informationen über den jeweiligen Status von Karte und Gerät erhält der Nutzer auf einen Blick via LED-Anzeige. Durch die Nutzung des AT-Befehlsatzes ist die Compactcard ISDN kompatibel zu StandardKommunikations-Software auf der Basis von Pocket PC, Windows 95/98, Windows NT 4.0 und Windows 2000. Die Karte unterstützt den CAPI 2.0 Standard, die ISDND-Kanal-Protokolle DSS1 Euro-ISDN (Europa), die in den USA gebräuchlichen Protokolle National ISDN-1 und -2 sowie AT&T ESS-5 und das japanische NTT-INS-Net. Außerdem laufen auf der Compactcard ISDN folgende ISDN-B-Kanal-Protokolle: HDLC PPP, ML-PPP, V.110, V.120, X.75, T70NL und 76 L AN line 12/2000 T90NL. Damit ist die Karte weltweit praktisch in jedem ISDN-Netz einsetzbar. (sm) Info: Komsa Solutions Tel.: 03722/713-202 Web: www.komsa-solutions.com Routing-Lösungen für Carrier und ISPs Von Juniper Networks gibt es ab eine Reihe neuer IP-Router-Lösungen für ISPs und Carrier, die ihre Bandbreiten am Netzwerk-Edge (an der Schnittstelle zum Anwender) schnell ausbauen wollen. Zu den Produkten gehören zwei neue Plattformen der M-Reihe (M5, M10), die für Umgebungen mit wenig Platz entwickelt wurden, eine neue Reihe von dedizierten Schnittstellen für T1/E1 und Channelized DS-3 zum Highspeed-Access sowie neue Zugangsfunktionen der Junos 4.1 Internet-Software. Die M5 und M10 InternetBackbone-Router sind die ersten Plattformen von Juniper mit Leitungsgeschwindigkeit (T1/E1 bis OC-48/STM-16). Sie sollen mehr als die zehnfache Übertragungs- und Routing-Kapazität herkömmlicher Router bieten, die heute zum dedizierten Access eingesetzt werden – dabei aber nur etwa ein Viertel soviel Strom und Fläche benötigen. Um ihr Geschäft zu vergrößern, benötigen die Service-Provider schnelle und intelligente Netzwerke. Alle M5- und M10Router werden serienmäßig mit dem IPII-ASIC (Internet Processor II) ausgeliefert, der komplexe Services wie das Paketfiltern für mehr Sicherheit oder das Sampling zur Verdeutlichung von Verkehrsmustern erlaubt. Junos 4.1 bietet als jüngstes Release zum ersten Mal auch Rate-Limiting pro VLAN und Sub-Interface, womit Provider den Betriebsaufwand deutlich senken konnen. So lässt sich damit etwa die Verfügbarkeit der Bandbreite pro Teilnehmer automatisch anpassen. Die neuen M5 und M10 Router sind jeweils drei Höheneinheiten (13,3 Zentimeter) hoch. Der M5-Router verfügt über vier Interface-Slots, der M10 über acht Slots. Die Grundkonfiguration des Systems kostet 25.000 Dollar (M5-Router) beziehungsweise 40.000 Dollar (M10-Router), während die Preise der Schnittstellen bei 10.000 Dollar beginnen. (sm) Info: Juniper Networks Tel: +44-1372-824262 Web: www.juniper.net Power am Edge-Router bei geringem Energie- und Platzbedarf: Juniper M10 VoIP-Modul für Load-Balancer Radware bringt eine neus Voice-Over-Internet-Protocol-(VoIP-)Modul auf den Markt, das als Software-Modul in der Radware-TrafficManagement-Lösung WebServer-Director integriert wird. Das neue Modul unterstützt das H.323-Standardprotokoll. Mit Hilfe eines speziellen Algorithmus können große, stark beanspruchte H.323 Server-Farmen mit nur einer virtuellen IP-Adresse betrieben werden. Je mehr VoIP-Applikationen laufen, umso schwieriger wird es laut Radware normalerweise für ISPs, ihre Load-BalancingKomponenten auf Unterstützung dieser Dienste aufzurüsten. Das VoIP-Modul des israelischen Herstellers synchronisiert mehrfache UDP- und TCP-Verbindungen, die vom H.323-Protokoll generiert werden und verteilt sie auf mehrere Server. Aufgrund seiner Routing-Fähigkeiten leitet das VoIP-Modul Sprachverkehr zu jeder beliebigen lokalen oder remote verbundenen H.323-Einheit. Das globale Load-Balancing leitet Benutzeranfragen zur am nächsten gelegenen H.323-Einheit um, was für hohe Geschwindigkeit und gute Qualität des VoIP Services sorgen soll. Das VoIP-Modul bearbeitet nach Angaben von Radware bis zu 100.000 Anrufe gleichzeitig und eigne sich daher für Firmen jeder Größe, ob Unternehmen, Service-Provider oder Telekommunikationsanbieter. (sm) Info: Radware Tel.: 089/93086-230 Web: www.radware.com www.lanline.de netzPRODUKTE/SERVICES TELEKOMMUNIKATION Automatische Anrufverteilung Als Erweiterung zum Ositron CTI-3.0-Server erlaubt ein neues ACD-Modul (Automatic Call Distribution) die regelgesteuerte Verteilung eingehender Anrufe und die automatisierte Abarbeitung von Rufnummernlisten, lastverteilt in Gruppen. Basierend auf der Standardschnittstelle TAPI 2.1 ist das Ositron-ACD-Modul unabhängig von der eingesetzten Hardware. Die Identifizierung der eingehenden Calls erfolgt über die Auswertung zum Beispiel von Vorwahlnummern, Postleitzahlen und Firmennamen. Anrufe mit unbekannter Caller-ID werden automatisch an einen Regieplatz vermittelt, damit der Anrufer dort persönlich erfasst werden kann. Das ACD-Modul lässt sich über ODBC an Datenbanken anbinden. Die Integration in Ositron CTI 3.0 Server erfolgt über ein TCP/IP-LAN. Auf diese Weise lassen sich Telefonmerkmale wie Parken, Verbinden, Konferenzschaltung, Kurzwahltasten, Anrufererkennung, Namenwahl etc. nutzen. Das ACD-Modul arbeitet laut Ositron mit anderen www.lanline.de TAPI-MAPI-Windows-Applikationen zusammen. Vordefinierte “Power-Dialer”-Listen lassen sich in Gruppen abtelefonieren. Die Nachbearbeitungszeit ist dabei frei konfigurierbar. Neben den ACD-Funktionen stehen dem Anwender die Features des CTI-3.0-Servers wie netzwerkweite Besetzlampenfelder, Net-Sending, Datenbankschnittstellen und die Integrationsmöglichkeiten durch die CTI-COM-Schnittstelle zur Verfügung. (sm) Info: Ositron Kommunikationstechnik Tel.: 0241/94698-42 Web: www.ositron.de Breitband-Access für TV-Kabelnetze Terayon Communication Systems bringt ein neues Endto-End Breitband-Access-System für den europäischen Standard Eurodocsis (Data-overCable-Service-Interface-Specification). Europäische Kabelfernsehbetreiber werden damit in die Lage versetzt, ihren Teilnehmern einen HighspeedZugang zum Internet und andere Breitband-Services anzubieten. Das Eurodocsis-System Swyxware jetzt mit Call-Routing-Manager besteht aus den Kabelmodems vom Typ Terajet 320, die beim Teilnehmer zum Einsatz kommen und den Access-Plattformen Broadbandedge 2000 oder Broadbandedge 2800, die im Headend des Kabelnetzbetreibers installiert werden. Bei den Terayon-BroadbandedgeSystemen handelt es sich um modulare und skalierbare Gehäuseplattformen, welche die Merkmale eines Eurodocsis Cable-Modem-Termination-Systems (CMTS) mit den Funktionen eines IP-Switch/ Routers vereinen. (sm) Swyx hat die IP-Telefonielösung Swyxware nun in der Version 2.0 vorgestellt. Das Highlight bildet ein integrierter Call-Routing-Manager. Mit diesem Feature werden Anrufe individuell von der Telefonanlage bearbeitet. Der Anwender kann damit eine auf den Anrufer zugeschnittene Weiterleitung einrichten. Der Regelassistent von Swyxware erlaubt verschiedene Verfahrensweisen für eingehende Anrufe zu definieren. Personen beziehungsweise Rufnummern lassen sich verschiedene Klingeltöne zuordnen. Bei einem eingehenden Gespräch erkennt das System anhand der gesendeten Telefonnummer den Anrufer und setzt die vorher definierte Vorgehensweise mit entsprechender Ansage auf der Sprach-Box um. Durch die zugeordneten Klingeltöne erkennt der Teilnehmer zum Beispiel, ob es sich um interne oder externe Gespräche handelt. (sm) Info: Terayon Communication Systems Tel.: 0032-2/3528783 Web: www.terayon.com. Info: Swyx Communications Tel.: 0231/4777-360 Web: www.swyx.com Das Terajet-320-Kabelmodem gehört zur Eurodocsis End-to-End Breitband-Access-Lösung L AN line 12/2000 77 netzTECHNIK MIT STANDARDS SCHRITT FÜR SCHRITT ANS ZIEL Sichere Pfade zur IP-Telefonie Kosten sparen und computerunterstützte TK-Anwendungen nutzen – das sind die Versprechungen der Voice-over-IP-Technologie. Die Installation einer unternehmensweiten IP-Konvergenz-Plattform, über die neben den Daten auch Faxe, Sprache, Videos und Multimediakommunikation übertragen wird, ist jedoch noch ein sehr komplexes und auch schwieriges Unterfangen. Aus einer ganz anderen Perspektive nähern sich ISPs und Telcos dem Thema: Ihnen öffnet die Sprachübertragung über IP-Netze völlig neue Perspektiven. Ob in Unternehmen oder bei TK-Providern, der Startschuss ist längst gefallen – und wer sich auf neus Terrain begibt, der sollte vor allem auf eines achten: Standards. uch wenn Alternativen zu Voiceover-IP (VoIP) wie zum Beispiel Voice over Frame Relay oder Voice over ATM durchaus (noch) attraktiv sind, arbeiten Carrier und Internet-Service-Provider mit Hochdruck an der Einführung IPbasierender Sprachdienste. Der Grund: A sociates, dass bis zum Jahr 2002 über neun Milliarden Dollar mit Telefonaten über IP-Netzwerke umgesetzt werden. IDC geht davon aus, dass mit “WebTalk” im Jahr 2004 bereits 16,5 Milliarden Dollar verdient werden. Heute ist dieses Geschäft praktisch noch nicht vor- Wichtig für eine IP-Infrastruktur, die neben Daten auch Echtzeitanwendungen transportieren soll, sind zentrale und dezentrale Konfigurationsmöglichkeiten Mit VoIP können sie zu Billigtarifen Fern- und Auslandsgespräche anbieten und trotzdem gutes Geld verdienen. So erwarten die Analysten von Killen & As- 78 L AN line 12/2000 handen. Von diesem erwarteten Boom profitieren nicht zuletzt auch die entsprechenden Hersteller, glaubt Frost & Sullivan. Danach werden VoIP-Produkte im Jahr 2004 einen Markt von 2,4 Milliarden Dollar repräsentieren, nachdem es in diesem Jahr noch bescheidene 380 Millionen Dollar werden sollen. FRAGEN ZUR QUALITÄT Für eine hohe Qualität der Sprache sind im Internet wie bei der klassischen Telefonie die folgenden Faktoren verantwortlich: geringe Laufzeit in der Verbindung von Endgerät zu Endgerät, das Vermeiden störender Echos, die durchgängige Signalisierung zur Steuerung der Sprachkommunikation und die Synchronisierung der beiden kommunizierenden Endgeräte. Während man all das in der herkömmlichen Telefonie heute bestens im Griff hat, gibt es dabei mit VoIP noch einiges zu verbessern. Der Grund liegt auf der Hand: Es gibt keine fest geschaltete Leitung zwischen den Gesprächsteilnehmern mehr, sondern die Endgeräte sind nur noch “virtuell” miteinander verbunden, weil die dazwischen liegenden Übertragungswege mehrfach genutzt werden. Das leitungsvermittelte, verbindungsorientierte Konzept im klassischen Telefonnetz – auf Basis des TDM-Übertragungsverfahrens (Time Division Multiplexing) – schaltet eine Leitung beziehungsweise einen Kanal exklusiv zwischen Sender und Empfänger. Somit werden genau definierte Netzressourcen für die Übertragung reserviert und vom Netz bereitgestellt, unabhängig davon, ob wirklich Nutzdaten übertragen werden oder nicht. Dieser Umgang mit dem Netz scheint verschwenderisch, sichert jedoch die inzwischen gewohnte Qualität und Zuverlässigkeit der Telefonie. Dabei sind drei Phasen wichtig, die über eine begleitende Signalisierung gesteuert werden: Der Verbindungsauf- und -abbau sowie die eigentliche Informationsübertragung, in der das Netz entweder eine garantierte Qualität für den Transport von zeitkritischer Information bietet oder die Verbindung ablehnt, wenn keine Ressourcen zur Verfügung stehen. Letztendlich liegt die technische Herausforderung für die hochwertige Realisierung von VoIP darin, den leitungsvermittelten und verbindungsorientierten www.lanline.de netzTECHNIK Wer bereits über getrennte Kommunikationsinfrastrukturen verfügt, für den bietet sich ein Dreiphasenkonzept zum Übergang auf eine integrierte IP-Lösung an Sprachdienst mit der gewohnten Qualität und den vertrauten Leistungsmerkmalen über paketvermittelte IP-Netze abzubilden. Schwierig wird das nicht nur deshalb, weil das IP-Transportprotokoll verbindungslos arbeitet. Erschwerend kommen die heterogene Struktur des Internets www.lanline.de und das fehlende zentrale Netzmanagement hinzu. Qualitätsmindernd wirken sich außerdem unterschiedliche Paketgrößen sowie die starken Schwankungen bezüglich der Auslastung des Netzes aus. Wichtig für die Qualität ist auch die effiziente Übertragung von Steuer- und Signalisierungsinformationen, für die man sich im Telefonnetz sogar einen separaten Steuerkanal leistet. Dazu wird ein geeignetes Signalisierungsprotokoll benötigt wie es beispielsweise der von der International Telecommunications Union (ITU) verabschiedete Standard für Videokonferenzen im LAN H.323 bereitstellt, gemeinsam mit ergänzenden Modulen wie H.450 für Zusatzdienste und H.235 für Sicherheitsaspekte. Da dieses Protokoll jedoch ursprünglich nur für die Durchführung von Videokonferenzen entwickelt wurde, fehlen noch manche spezifischen Verfahren für die Telefonie. Diese sollen künftig mit dem zusätzlichen SIP-Standard (Session Initiation Protocol), einem Vorschlag für die Signalisierung von der Internet Engineering Task Force (IETF), besser bedient werden können. Damit diese Standards für den Carrier- (SIP) und Enterprise-Bereich (H.323) sich möglichst nahtlos L AN line 12/2000 79 netzTECHNIK zusammenfügen, wird im Rahmen des ETSI-Projekts “Telecommunications and Internet Protocol Harmonization over Networks” (Tiphon) die Harmonisierung von H.323 mit dem SIP-Standard angestrebt. Mit ähnlichem Ziel wurden kürzlich mit “Inow” (Interoperability Now) und “Ahit” ce Exchange – manchmal auch als CTX bezeichnet: Die private Telefonanlage wird durch die Vermittlungsstelle des Netzbetreibers ersetzt) erlaubt. Die SIPKonformität wird dabei durch die Integration des SIP-Protokoll-Stacks von Mediatrix Telecom erzielt, einem kanadischen Verbesserungen durch IPv6 Neben einer höheren Codec- und Router-Performance bietet auch das Internet-Protokoll selbst eine Reihe von Ansatzpunkten, um den Sprachpaketdurchsatz zu verbessern. Denn die Entwicklung bleibt auch bei IP nicht stehen, das zusammen mit dem zugehörigen Transport Communication Protocol TCP in der heutigen Version 4 bereits auf das Jahr 1981 zurückgeht. Auf der Robustheit und Effizienz der für die Netzsteuerung und Datenübermittlung verwendeten Kommunikationsprotokolle, aber auch auf der allgemeinen Akzeptanz durch die Hersteller basieren auch Erfolg und Ausbreitung des Internets. Jetzt stößt aber auch IP selbst offenkundig an Grenzen. Deshalb wurde der erweiterte IP-Standard “IP Version 6” definiert. Ergänzend hinzu kommen eine Reihe weiterer Protokolle (zum Beispiel 802.1p, 802.1Q oder das Resource Reservation Protocol RSVP), die Sprachpaketen eine höhere Übertragungspriorität einräumen als Datenpaketen. Damit werden nicht nur Delays und Latency reduziert, sondern es sollen auch vollständige Paketverluste verhindert werden. So wird unter anderem durch spezielle Mechanismen die Annäherung an die Echtzeitanforderungen angestrebt. Ein Beispiel ist das “Real Time Transport Protocol” (RTP), das den Verkehr mit kontinuierlichem Informationsfluss an das Paketübermittlungsverfahren anpassen soll. RTP versieht die Sprachpakete mit einer fortlaufenden Sequenznummer, wodurch der Verlust einzelner Pakete erkannt wird. Ferner fügt RTP einen Zeitstempel hinzu, der es ermöglicht, dass Sprachpakete, die zu lange im Netz unterwegs waren, beim Empfänger unterdrückt werden – also nicht durch ihr verspätetes Eintreffen zu einer weiteren Störung führen. Allerdings geht RTP zu Lasten des Overhead, denn es werden zusätzlich 16 Byte Information pro IP-Paket mitgeschickt. Einzelne Netzwerkbereiche können schon heute auf IPv6 umgestellt werden, auch wenn die Produkte noch rar sind. Müssen die IPv6-Pakete Strecken durchlaufen, auf denen IPv4 im Einsatz ist, können sie in IPv4 eingepackt werden (Tunneling). Rechner lassen sich auch im so genannten Dual-Stack-Modus aufsetzen, sodass sie beide Protokolle verarbeiten. Neuerdings wird die Tunneling-Variante durch die Entwicklung von 6to4 – einem neuen Protokoll, an dem die IETF zur Zeit arbeitet – weiter optimiert. Zu beachten ist jedoch, dass beim Übergang zu IPv6 eine ganze Reihe anderer Protokolle, die im weitesten Sinne zur TCP/IP-Protokoll-Familie gehören, ebenfalls angepasst werden müssen. Dazu gehören Routing-Protokolle wie etwa OSPF (Open Shortest Path First), EIGRP (Enhanced Interior Gateway-Routing-Protocol) und DNS (Domain Name System). Letzteres muss mit IPv6 in der Lage sein, sowohl 32-Bit- als auch 128-Bit-IP-Adressen zu verwalten. (Applications on Harmonized Interoperable IP Telephony) zwei weitere Aktivitäten ins Leben gerufen. Für ein reibungsloses Zusammenspiel aller an der IP-Telefonie beteiligten Komponenten ist also die Einhaltung von Standards eine Grundvoraussetzung. Bei Siemens beispielsweise gibt es mit dem Optipoint 100 Advance ein SIP-Telefon, das die direkte Verbindung zu einem IP-Centrex-Dienst (Central Offi- 80 L AN line 12/2000 Lieferanten von Low-Density-IP-Gateways und Terminaladaptern. KOMPRIMIERUNG BRINGT NICHT NUR VORTEILE Die Sprachqualität in ei- nem Netz unterliegt aber auch grundsätzlichen Einflussgrößen. Technisch gesehen sind hier im Wesentlichen drei Faktoren relevant, die sich zum Teil auch untereinander beeinflussen: – Sprachcodierung und -kompression (Codec) im Endgerät, – Paketverzögerungen/Laufzeitunterschiede (Packet Delays, Latency oder Jitter) und – Paketverluste bei der Sprachübertragung (vor allem durch “zu später” Zustellung). Bei der Konfiguration eines IP-Netzes für Telefonieanwendungen sind diese Faktoren so zu berücksichtigen, dass über den gesamten Übertragungsweg möglichst geringe Einbußen resultieren. Dabei sollten nicht nur alle Komponenten für sich isoliert optimiert werden, sondern auch ihr Zusammenspiel. FORTSCHRITTE BEI DEN CODECS Wohl die wichtigsten Fortschritte in der paketierten Übertragung von Sprache sind in den letzten drei Jahren auf der Seite der Codecs erzielt worden, die mit Hilfe spezieller Algorithmen das Sprachsignal abtasten und komprimiert in Datenpakete stecken. Neben der klassischen PCM-Codierung nach dem ITU-Standard G.711 mit 64 kBit/s werden heute unterschiedliche Norm-Kompressionsverfahren verwendet, die je nach Algorithmus Datenraten zwischen 5,3 und 32 kBit/s benötigen. Sie komprimieren die Sprache dazu um bis zu Faktor 10 und unterdrücken Gesprächspausen (Silence Suppression). Dabei bieten die Codec-Typen je nach Standard folgende Eigenschaften: – G.723: benötigt mit 5,3 bis 6,3 kBit/s die geringste Bandbreite, verursacht aber sehr hohes Delay (67,5 Millisekunden); – G.728: verursacht ein sehr geringes Delay (1,25 Millisekunden), braucht aber mit 16 kBit/s relativ hohe BitRaten; – G.729: ein Kompromiss mit mittlerem Delay (25 Millisekunden) und 8 kBit/s; – G.729A: gleiche Werte wie G.729, braucht jedoch deutlich weniger Prozessorleistung. Komprimierung kostet Zeit, die den Vorteil des geringeren Bandbreitenbedarfs wieder zunichte machen kann. Denn die Qualität der Sprachübertragung wird auch durch die Paketverzögerung www.lanline.de netzTECHNIK wesentlich beeinträchtigt. Erschwerend kommt hinzu, dass der Faktor “Delay” nicht nur innerhalb des Codec auftritt, sondern sich über mehrere Komponenten auf der gesamten Übertragungsstrecke summiert. So entstehen Verzögerungen durch die Verarbeitungszeit der Pakete, ihre Zwischenspeicherung und ihre Weiterleitung auch etwa in den H.323Endgeräten, in den Routern des Netzes und im Gateway (soweit es sich nicht um einen reinen IP-Anruf handelt). Durch werden und bei Verlust wiederholt werden können (“Store and Forward”). Dieses Verfahren ist aber für die IPSprachübertragung nicht geeignet. Ein Paket muss innerhalb eines bestimmten zeitlichen Rahmens ankommen, damit der Algorithmus der Rückwandlung der Sprachdatenpakete in analoge Sprachsignale (im empfangenden H.323-Telefon oder Router) richtig arbeitet: Kommt ein Paket “zu spät”, so ist es für den Codec unbrauchbar und gilt als verloren. Beispiel für die Struktur einer Kommunikationslösung zwischen Zentrale und Außenstellen, die sowohl über klassische Telefongesellschaften als auch neue IP-Carrier läuft entsprechende Dimensionierung von Durchsatzleistungen und ein effizientes Speicherkonzept lässt sich dieses Problem bei internen Netzen meist in den Griff bekommen. Schwieriger als im firmeneigenen Netz ist die Situation bei der Übertragung über das “öffentliche” Internet, denn die problematischste Quelle von Delays und Paketverlusten ist und bleibt dieses IP-Netz selbst. Es lassen sich zwar Bandbreiten für bestimmte Applikationen reservieren, die aber bei Überlastung des Netzes wieder abgegeben werden müssen. Sogar Paketverluste, bedingt durch Übertragungsstörungen oder Router-Überlastungen, sind nie vollständig auszuschließen. Bei der Übertragung von Daten wird dieses Problem dadurch entschärft, dass gesendete Pakete zwischengespeichert 82 L AN line 12/2000 Das klingt allerdings dramatischer als es ist, denn das menschliche Ohr nimmt bei geringen Paketverlusten kaum eine Einbuße der Sprachqualität wahr; Messungen haben ergeben, das Paketverluste von bis zu fünf Prozent in der Regel “überhört” werden. Nach dem Standard G.114 der ITU für Sprachübertragung wird daher eine “Zielqualität” (weniger als fünf Prozent Paketverluste, kleiner als 200 Millisekunden Delays) definiert, die zu erreichen als eines der wichtigsten Ziele der VoIPTechnologie gilt. Zudem können mit modernen Transformationsverfahren im Endgerät die Störungen durch fehlende IP-Pakete minimiert werden. Heute liegt die Ende-zu-Ende-Verzögerung im Internet zwischen 140 und 1720 Millisekunden. Selbst bei optimalen Bedingungen treten Verzögerungen von etwa 100 Millisekunden auf. Das liegt auch daran, dass das Internet nicht über ausreichend Bandbreitenreserven verfügt. Seit Mitte 1998 hat jedoch ein Trend eingesetzt, der in zwei bis drei Jahren IP-Backbones mit Bandbreite “im Überfluss” verspricht: Auf den Weitverkehrsverbindungen kommen neue Glasfaserstrecken zum Einsatz, welche die Kapazitäten um den Faktor 1000 bis 10.000 erweitern. Entsprechende Ringe zur Verschaltung der europäischen Metropolen sind im Aufbau und gehen teilweise schon in Betrieb. Damit wird den IP-Sprachverbindungen, die mit G.729 jeweils nur eine sehr kleine Bandbreite von 8 kBit/s benötigen, diese Bandbreite gewissermaßen garantiert. Noch allerdings fehlt diese Kapazität, und auch deshalb liegt das Haupteinsatzfeld der IP-Telefonie im ersten Schritt im LAN-Bereich sowie im Intranet oder VPN des Unternehmens. Diese befinden sich unter der Kontrolle eines Netzadministrators, der über geeignete Maßnahmen die gewünschte Qualität sicherstellen kann. Dies ist aber nur möglich, wenn die Infrastruktur auch die erforderlichen Werkzeuge und Verfahren zur Gewährleistung von Dienstgüte, Zuverlässigkeit, Verfügbarkeit, Management und Gebührenabrechnung bereitstellt. BAUSTEINE FÜR DIE IP-TELEFONIE IM LAN Innovative Hersteller arbeiten mit Hochdruck daran, für die Telefonie über IP die bislang vertrauten Leistungsmerkmale bereitzustellen. Zum Aufbau einer solchen Infrastruktur für IP-Telefonie werden grundsätzlich drei neue Bausteine erforderlich: das Endgerät, ein IPCommunication-Server (auch Soft-PBX genannt) sowie ein IP-Gateway. Hinzu kommt noch die Funktion des Gatekeepers, die je nach Situation im Communication-Server oder im IP-Gateway realisiert sein kann. – Ein Soft-Client mit IP-Adresse: Als Endgerät kommt sowohl ein IP-Telefon oder eine Software auf dem PC (Soft-Client) in Betracht. Das IP-Telefon unterscheidet sich vom klassischen Telefon vor allem durch die Schnittstelle: Statt einer a/b- oder ISDN- www.lanline.de netzTECHNIK Schnittstelle verfügt es über ein 10/100BaseT-Interface zum LAN. Auch telefonintern laufen andere Protokolle ab: Bei einem ISDN-Telefon Q.931 oder Euro-ISDN, bei einem LAN-Telefon (meist) TCP/IP und H.323. Darüber hinaus realisiert das IP-Telefon zum Teil auch schon die Sprachkompression (G.723, G.729). Intern adressiert wird es nicht per Telefonnummer, sondern durch die IPAdresse. – Das Herz – der IP-CommunicationServer: Der IP-Communication-Server ersetzt oder ergänzt die herkömmliche Telefonanlage (PBX), wobei moderne Telefonanlagen auch selbst zum IPServer aufgerüstet werden können. Siemens bietet zum Beispiel für IP-vernetzte Hicom-150-H-Systeme das IPPaket Hipath Allserve 150 an, eine Windows-Applikation, welche die Merkmale einer Hicom 150 E über das IP-Netz bereitstellt. Als H.323-Standard-basierte IP-KommunikationsServer auf Basis von Microsoft Windows NT gesellt Siemens im Rahmen einer kürzlich vorgestellten neuen IPProduktfamilie die Server Hipath 5500 und 5300 dazu. Solche IP-Communication-Server, die mittlerweile von etablierten Herstellern und innovativen Startup-Companies erhältlich sind, steuern wie die klassische Telefonanlage alle Verbindungsanforderungen und Vermittlungsprozesse, so zum Beispiel das gezielte Umleiten von Rufen bei “besetzt” oder “nicht erreichbar”, aber auch Konferenzschaltungen oder Musikeinspielungen und die Gebührenabrechnung. Da alle Verbindungsanforderungen vom Communication-Server bearbeitet werden, führt er auch die statistischen Informationen über die Auslastung der Verbindungswege, den Zustand aller aktuellen Verbindungen und hält den Status aller registrierten Teilnehmer. Die eigentlichen Sprachdaten werden allerdings direkt zwischen den Telefonen ausgetauscht und nur in Ausnahmefällen – wie zum Beispiel bei einer Telefonkonferenz – über den Server geleitet. 84 L AN line 12/2000 – Das H.323-Duo: Gateway und Gatekeeper: Nicht zu unterschätzen ist die Bedeutung der dritten Komponente: Ein IP-Gateway ist notwendig, um die Verbindung zwischen dem IP-Netz und dem öffentlichen Telefonnetz zu schaffen oder standortübergreifende Installationen zu realisieren. Zentraler Baustein eines Gateways sind handelsübliche ISDN-Karten (CAPI 2.0) mit BRI- oder PRI-Schnittstellen. Durch eine entsprechende Protokollerweite- mit dem Gateway die Funktionen eines Gatekeepers erfüllen. Das Manko: Noch sind alle Gatekeeper herstellerspezifisch implementiert, weil in H.323 zahlreiche Funktionen bisher nicht definiert sind. Dazu zählen beispielsweise die Kommunikation von Gatekeeper zu Gatekeeper und zwischen Gatekeeper und Gateway. Speziell die Zuverlässigkeit von Gateway- und Gatekeeper-Funktionen bereitet oft Probleme. Dies bezieht sich sowohl auf die Ausfallsicherheit der Hard- IP-Telefone wie hier das Hinet LP 5100 von Siemens lassen sich äußerlich gestalten wie klassische Nebenstellen. Der Unterschied liegt in den Schnittstellen und den internen Protokollen. rung stellt das Gateway auch die Verbindung zu einer bestehenden TK-Anlage her. Somit ist gewährleistet, dass der IP-Communication-Server nicht nur als Ersatz, sondern auch als Ergänzung zu bestehenden TK-Installationen genutzt werden kann. Im Sinne des Investitionsschutzes ist diese Eigenschaft essenziell. Die vielleicht wichtigste Funktion eines IP-Gateways (oder auch Communication-Servers) realisiert der Gatekeeper oder Call-Manager. Er setzt die H.323-Funktionalität in die Praxis um. Zu seinen grundsätzlichen Aufgaben zählen: – Übersetzung der IP-Adresse in Telefonnummer und umgekehrt, – die Zugangssteuerung unter Berücksichtigung der momentanen Netzauslastung (Erlang), – die Verwaltung der LAN-Bandbreite. Jeder IP-Server muss in Verbindung ware (Dauerbetrieb) als auch auf Software-Schwächen – beides in der PCTechnologie nur allzu häufig. Abhilfe schafft neben der Auswahl von Geräten in robuster Bauweise der Einsatz redundanter Komponenten für Stromversorgung, Plattenlaufwerke oder auch CPUs. Ein ausgefeiltes Clustering- und BackupKonzept in Verbindung mit einem automatischen Wiederanlauf des Servers sind ebenfalls geeignet, die Probleme auszubügeln, verschlingen aber in der Regel beträchtliche Geldsummen. LAN-TELEFONIE RUFT NACH SWITCHING Bei den installierten LAN-Kom- ponenten sollte es sich um Ethernet- beziehungsweise Token-Ring-Switches handeln, da die Verwendung zusammen mit Shared-Hubs die Sprachqualität hörbar mindern könnte. Dabei kommt der VoIPTechnik zugute, dass im LAN zunehmend www.lanline.de netzTECHNIK die alten 10-MBit/s-Ethernets durch 100 MBit/s- und demnächst 1-GBit/s-Ethernets ersetzt werden (beziehungsweise High-speed-Token-Ring oder ATM zum Einsatz kommen). Weiterhin sind die Netze durch Switches in der Regel bereits stark strukturiert, so dass nur selten mehr als 50 Endgeräte in einem Segment angeschlossen sind, die sich dann bei gleichzeitiger Kommunikation die Bandbreite teilen müssten. Geht man von einer Maximallast von zehn Prozent der verfügbaren Bandbreite aus, die nach Ansicht von Experten auch bei gleichzeitigem Datenverkehr den Sprachpaketen noch “verzögerungsfreien” Transport garantieren würde, so könnte ein 10-MBit/s-Ethernet maximal 100 Sprachverbindungen (Voll-Duplex, G.723.1) oder 25 Verbindungen nach G.711 in “CDQualität” parallel zum sonstigen Datenverkehr transportieren. Das typische Nutzenverhältnis liegt bei sechs bis acht angeschlossenen Telefonen zu einem aktiven Telefon. Das heißt, dass dann die 25 gleichzeitigen Sprachverbindungen im Ethernet für bis zu 150 angeschlossene Telefone ausreichen würden, also mehr, als Endgeräte in einem Ethernet-Segment angeschlossen sind. Die neuen, zwischen 100 MBit/sund 1 GBit/s schnellen LAN-Technologien wie Fast- und Gigabit Ethernet, High-speed-Token-Ring oder ATM könnten entsprechend mehr Telefone pro Segment verkraften. Allerdings sind die meisten der heute konkret verfügbaren IP-Systeme nur für Teilnehmerzahlen zwischen 100 und 200 konzipiert. Siemens will demnächst mit Hipath 5500 einen IP-Server auf den Markt bringen, der im ersten Schritt bis zu 500 und zukünftig mehrere tausend Anwender auf verteilten Servern unterstützen soll. Um die Laufzeiten innerhalb des Netzes gering zu halten, sollten die Switches im Ethernet unbedingt die Priorisierung von Datenströmen ermöglichen und zudem nach dem “Cut-through”-Verfahren arbeiten. Das häufig verwendete “Storeand-forward”-Verfahren ist aufgrund der unkalkulierbaren Verzögerungen im Switch für VoIP ungeeignet. 86 L AN line 12/2000 SCHWIERIGKEIT: BEWEGLICHES ZIEL Neben diesen technischen Detailproblemen, die sich aller Voraussicht nach schon bald befriedigend lösen lassen, gilt heute das Hauptaugenmerk der Frage: Werden die Netze auf IP-Basis alle anderen herkömmlichen Netze – das Telefonnetz eingeschlossen – ersetzen? Eine abschließende Antwort gibt es nicht, aber die wirtschaftliche Vernunft wird nach praktikablen Wegen suchen, die Investitionen in die vorhandene Infrastruktur auszuschöpfen. dardkonforme Produkte eingesetzt werden. Erst Standardkonformität stellt Austauschbarkeit, Erweiterbarkeit, Interoperabilität und Zukunftssicherheit der darin verwendeten Bausteine sicher. Nur dann wird sich die Investition in eine IP-Infrastruktur auszahlen. Denn auch wenn das Kostenargument zur Zeit sehr dafür spricht: Alle lupenreinen Kostenkalkulationen können sich durch Tarifänderungen der Carrier schnell als Milchmädchenrechnungen erweisen. Angesichts der rasant Das Problem: ausreichende Dienstgüte (Quality of Service) Auf Basis der aktuellen IP-Erweiterungen gibt es im Wesentlichen drei besondere Vorkehrungen, über die sich auch in einer VoIP-Implementierung definierte Service-Levels anbieten lassen, die in der Regel in einem Service-Level-Agreement (SLA) festgelegt werden: – Bereitstellung von ausreichend Bandbreite wie es im LAN- und Intranet-Bereich durchaus möglich ist, – Priorisierung des Verkehrs auf unterschiedlichen Ebenen (zum Beispiel IEEE 802.p und 802.q, IETF Diffserv) und – explizite Reservierungen (zum Beispiel das Resource Reservation Protocol RSVP). Die Vereinbarung von Service-Levels funktioniert jedoch nur dann, wenn sich die sensiblen Daten klassifizieren lassen, etwa mit Hilfe der Differentiated-Services (Diffserv) oder IEEE 802.1p. Außerdem sind Methoden zur Priorisierung von Sprachinformationen notwendig. Für Leitungen mit niedriger Bandbreite bietet sich beispielsweise eine Kombination von “Priority Queuing” für Sprachinformationen und “Weighted Fair Queuing” (WFQ) oder “Class-based Weighted Fair Queuing” (CBWFQ) für Daten an. Um die Bandbreite bestmöglich zu nutzen, sollten zudem Kompressionsverfahren eingesetzt werden. Doch selbst die neuen Protokolle wie RSVP können letztlich keine “echte” Dienstgüte garantieren wie sie für hochwertige Echtzeitanwendungen mit Blick auf Verfügbarkeit, Fehlerraten oder Verzögerungszeiten erforderlich wäre. Das liegt daran, dass die verwendeten Protokolle der Schicht 2 diese Dienstgüte nicht liefern können, beispielsweise alle EthernetVarianten bis hin zum Gigabit-Ethernet (CSMA/CD). Hier haben andere Technologien wie Token-Passing oder ATM Vorteile. Zudem bringt das RSVP-Verfahren eine Reihe von Nachteilen mit sich, vor allem einen Performance-Verlust, da es für jede Verbindung vom Netz angefordert werden muss. Unklar ist, wie das Netz reagiert, wenn viele Teilnehmer gleichzeitig das Protokoll einsetzen, denn das Netz kann die angeforderten Ressourcen verweigern oder sie während einer bestehenden Verbindung zurückfordern. Ein weiteres Manko: Alle Router auf einem Verbindungspfad müssen das neue Protokoll RSVP “verstehen”. Zeigten beispielsweise anfangs vor allem Firmen Interesse an VoIP-Lösungen, die entfernte Standorte miteinander koppeln wollten, weil für den Zugang zum Internet nur die Ortsgebühr zu zahlen ist, hat sich das bereits wieder geändert. Beim Hürdenlauf auf dem Weg zur LAN-Telefonie ist daher damit zu rechnen, dass sich unterwegs das Ziel ändert. Daher ist beim Aufbau der IP-Infrastruktur Flexibilität das oberste Gebot. Diese Flexibilität lässt sich nur dann erreichen, wenn konsequent stan- fallenden Telefongebühren scheint es ratsam, den Blick mehr auf den Nutzen der VoIP-Technologie zu richten denn auf “nackte” Kostenvorteile, um nicht am Ende des Hürdenlaufs irgendwo anzukommen, wohin man gar nicht mehr wollte. (Ruth Watzke, Siemens AG/sm) Die Autorin ist Mitarbeiterin im Geschäftsbereich Information and Communication Networks der Siemens AG, Abteilung Marketing. www.lanline.de netzTECHNIK PASSIVE ISDN-STERNVERKABELUNG Untersuchung zeigt Kriterien und Grenzen Bisher sind für Verkabelungskonfigurationen an der ISDN-Teilnehmerschnittstelle S0 nur der kurze und erweiterte passive Bus oder Punkt-zuPunkt-Verbindungen standardisiert. Das sind aber nicht die einzigen Möglichkeiten, um ISDN-Teilnehmerendgeräte passiv an Netzabschlussgeräte (NTBA) anzuschließen. Der folgende Artikel zeigt die Ergebnisse von theoretischen und praktischen Untersuchungen an S0-Sternkonfigurationen mit bis zu acht Zweigen für gängige Installationskabel. Die Untersuchungen ergaben, dass die Installationsempfehlungen für S0-Netze durchaus entsprechend erweitert werden könnten. mmer mehr Installateure und Anwender fragen nach einer passiven Sternverkabelung am S0-Punkt, da dies je nach den lokalen Bedingungen beim Endteilnehmer günstiger sein kann als der (standardisierte) passive Bus. Bild 1 zeigt die drei standardisierten Grundtypen für eine passive ISDN-Verkabelung. Die unterste Struktur des erweiterten passiven Busses ist als Sonderfall standardisiert. Dabei bilden mehrere kurze Teilnehmerleitungen ein Strahlenbüschel am Ende einer Punkt-Punkt-Verbindung (Näheres in den Normen [1] und [2]). Wer Anleitungen und Empfehlungen für eine S0-Sternverkabelung sucht, findet diese beim North-American-ISDN-User-Forum in dem Dokument NIUF 444-97 und in der nationalen Richtlinie der niederländischen KPN – allerdings ohne theoretische Grundlagen oder Erprobungsergebnisse. Im Oktober 1999 veröffentlichte Cenelec einen Vorschlag zur Ergänzung der EN 50098-1, der die dort standardisierten Buskonfigurationen durch eine Sternkonfiguration ergänzt ([3]). Auch hier sind weder physikalische Herleitung noch Empfehlungen oder entsprechende Quellenangaben zu finden. Erwähnt sei auch, dass seit einiger Zeit aktive Sternkoppler (ISDN-Hubs) für die S0Schnittstelle angeboten werden ([6], [7], I 88 L AN line 12/2000 [8]), die sich bei den maximalen Zweiglängen am genormten S0-Bus orientieren, jedoch einen deutlichen Mehraufwand darstellen. Der Koppler wird entweder direkt am S0-Port des NTBA angeschlossen oder ist in eine Klein-TK-Anlage integriert. PHYSIKALISCHE ANFORDERUNGEN AN STERNKONFIGURATION Eine Herlei- tung der physikalischen Anforderungen an eine Sternkonfiguration kann auf den bereits vorhandenen und bekannten Fall des kurzen passiven Busses aufsetzen, wobei es wegen der praktisch auftretenden Kabelvielfalt und der Vielschichtigkeit der Phänomene kaum möglich ist, eine allgemeingültige Berechnungsformel anzugeben. Ähnlich wie beim passiven S0-Bus oder den Uko-seitigen Amtskabeln wird man anhand von untersuchten Fallbeispielen für typische Kabelkonfigurationen Forderungen aufstellen, die – versehen mit einem Sicherheitszuschlag – einen Kreis um die unendliche Vielfalt der denkbaren Anwendungsfälle schlagen ([4] und [5]). Während sich die Abschätzungen bei den bisherigen S0-Installationen auf die Einhaltung der begrenzten Laufzeit (kurzer Bus) oder die zulässige Signaldämpfung (Punkt-Punkt-Verbindung) zurückführen lassen, treten im Fall der Sternkonfiguration die Pulsverzerrungen in den Vordergrund, die durch Reflexionen an den nicht angepassten Kabelenden entstehen. Hinzu kommt der Wunsch eines jeden Bild 1. Die drei Grundtypen für eine passive ISDN-Verkabelung www.lanline.de netzTECHNIK Netzbetreibers, die Elemente der bisherigen S0-Installation weiterverwenden zu können. Aus diesem Grunde wurde für die vorliegenden Untersuchungen als Abschlusswiderstand TR (termination resistor) nur ein Wert von 100 Ohm (in Ausnahmen 50 Ohm) betrachtet. DAS UNTERSUCHUNGSKONZEPT Das Instrumentarium zur Untersuchung von möglichst vielen und unterschiedlichen Fallbeispielen der Sternkonfiguration um- trieb des NTBA (Network Termination Basic Access = Basisband-Netzabschlussgerät) im Busmodus. Damit laufen alle Prozeduren des Verbindungsaufbaus und der D-Kanal-Zugriffssteuerung durch die Teilnehmer (TE: Terminal Equipment), Vergabe von TEI, MSN, B-Kanälen und Ähnliches mehr so ab, als läge ein Bus mit bis zu acht Teilnehmern vor. Die Leitungsdämpfung bleibt vergleichsweise gering, und das System ist verzerrungsbegrenzt. Tests – zu unterscheiden, ob nur eine Sprechverbindung aufgebaut werden kann oder ob auch Daten fehlerfrei über die B-Kanäle übertragbar sind. 4. Kabeltypen: In Anlehnung an die bereits bestehenden Empfehlungen ([1], [2] und [5]) verwendeten die Untersuchungsingenieure, um einen Worst-Case-Fall zu simulieren, zunächst S0-Kabel mit 120 nF/km Kapazität und für die messtechnischen Untersuchungen die für ISDN-Zulassungsmessungen üblichen Kabelnachbildungen mit 120 nF/km. 5. Die vereinfachte Nachbildung der Sende- und Empfangsschnittstelle des S0Schaltkreises im TE oder im NTBA erfolgt auf Basis der Lösungen von PEB 2081 und PEB 2085 (Firma Infineon). BERECHNUNG VON IMPULSVERLÄUFEN Bild 2. Der Messaufbau für einen Sechsfachstern fasste zum einen eine theoretische Berechnung von Impulsverläufen mit einem geeigneten Analyseprogramm inklusive der Entwicklung von Modellen für wesentliche Komponenten. Um die theoretischen Berechnungen zu untermauern, arbeiteten die Ingenieure mit einem Messaufbau, der aus bis zu acht Zweigen mit variabler Länge für Sprach- und Datenverkehr bestand. Zunächst ermittelten sie jedoch die wichtigsten Einflussgrößen und Szenarien für den Stör- und Ausfallmechanismus, um zu möglichst einfachen und beherrschbaren Verhältnissen zu gelangen. Daraus ergaben sich für die Untersuchungen folgende Grundsätze: 1. Die Sternleitungen werden als Sonderfall des passiven S0-Busses aufgefasst, das heisst, unterhalb der vorgeschriebenen Laufzeitschranken (round trip delay) von rund zwei Mikrosekunden mit Be- 90 L AN line 12/2000 2.Ausfallkriterien: Bei Simulationen entscheidet das Augendiagramm eines speziellen Pulsmusters auf der S0-Empfängerseite. Bei praktischen Messungen entscheidet die Bitfehlerrate bei pseudostatistisch belegtem B-Kanal oder ein Schicht-1-Ausfall. 3. Kritische Szenarien zur Ausfallbewertung: Störung der Schicht-1-Pulse und Rahmen beim Verbindungsaufbau (Aktivierungsprozedur). Dabei müssen beide S0-Signalrichtungen betrachtet werden sowie die Tatsache, dass zunächst alle TEs parallel antworten, wenn ein Ruf von der Amtsseite kommt. Störung einer bereits bestehenden Verbindung TE-NTBA, wenn eine weitere unabhängige Verbindung über den zweiten B-Kanal aufgebaut werden soll. Dabei ist – zumindest bei praktischen Die Ingenieure setzten für die Simulation das Software-Paket Pspice Orcad V 9.1 ein und berechneten über eine Transientenanalyse den Pulsverlauf am Empfängereingang (TE-seitig und NTBA-seitig). Sie berücksichtigten dabei zum einen beide Signalrichtungen, die jeweiligen Signalverzögerungen des Zweigs (Laufzeiten) sowie die unterschiedlichen Abtastfenster bei TE und NTBA. Eine große Rolle spielt auch das gewählte Pspice-Modell für die verlustbehaftete Leitung im relevanten Frequenzbereich unter 500 kHz. Für die Praxis ist wichtig, dass sich die Kabelmodelle auf die im Bereich der deutschen und auch europäischen TK-Netzbetreiber tatsächlich eingesetzten Fernmeldeschalt- und Installationskabel beziehen. Sie sollten also der EN 50098/Anhang B entsprechen sowie der DTAG-Richtlinie 1 TR5 mit Daten nach DIN VDE 815 oder 813. Auf dieser Basis analysierten die Prüfingenieure theoretisch Sternstrukturen mit zwei, drei, vier, sechs und acht Zweigen, wobei sie die Zweiglängen und Abschlussbedingungen jeweils variierten (100 Ohm on/off). Als Rückkopplung aus den parallel durchgeführten praktischen Messungen wurden speziell die empirisch ermittelten Grenzfälle der gerade noch fehlerfreien Datenübertragung simuliert. Es stellte sich heraus, dass Rechnung und Messung im Wesentlichen überein- www.lanline.de netzTECHNIK stimmen. Insbesondere liefert die Simulation Hinweise zur zweckmäßigen Anschaltung von 100-Ohm-Abschlüssen. Beispielsweise erlaubt ein Stern mit drei Zweigen und jeweils 150 Meter Länge, bei dem NTBA und ein TE nicht abgeschlossen sind und die beiden verbleibenden TEs mit 100 Ohm beschaltet sind, keine sichere Impulserkennung. Die Situation verbessert jedoch sich wesentlich, wenn der Sternpunkt zusätzlich abgeschlossen wird (im NTBA ohnehin vorhanden). Bezüglich weiterer Details und Beispiele sei auf den ausführlichen technischen Bericht ([9]) verwiesen. DIE MESSUNGEN Eine Verkabelung mit einem Sechsfachstern wurde für diese Untersuchungen wie in Bild 2 dargestellt aufgebaut. Die Sternkonfigurationen mit einer anderen Anzahl von Zweigen und Längenkombinationen sehen ganz ähnlich aus. Die Ingenieure legten dabei großen Wert darauf, als Leitungssimulatoren (LNB) Geräte zu verwenden, die auch für ISDN-Abnahmemessungen zugelassen sind und dass der Verbindungsauf- und abbau über eine reale digitale Vermittlungsstelle erfolgt. Die Tests zielten insbesondere auf Sonderfälle in der Praxis ab, wie: – Störungen, die Auftreten, wenn vom TK-Netz aus eine Verbindung aufgebaut wird (auf den Ruf der Amtsseite antworten zunächst alle TE gleichzeitig während der Aktivierungsphase und vermischen sich am Sternpunkt) sowie Störungen bei einem Ruf vom Stern ins Netz. – Wahlversuch über den zweiten B-Kanal während einer bereits bestehenden Verbindung über den ersten B-Kanal oder während einer bestehenden Datenverbindung mit Bit-Fehlern in nur einer Übertragungsrichtung oder wenn zwar eine Sprechverbindung möglich ist, aber keine Datenverbindung oder diese stark gestört ist. Mit dem Messaufbau gemäß Bild 2 war gerade noch ein fehlerfreier Betrieb möglich, wenn zwei Zweige 80 Meter lang und TE-seitig abgeschlossen waren und die restlichen vier Zweige 40 Meter lang und 92 L AN line 12/2000 nicht abgeschlossen waren. Verlängerte man die 40-Meter-Stücke auf 60 Meter, konnte keine Verbindung mehr hergestellt werden. Dieser Grenzfall bestätigte sich auch in der Simulation (Einzelheiten siehe [9]). Sollten allgemeine Installationsrichtlinien für solche Sternstrukturen erstellt werden, müssen diese zu derartigen Grenzfällen genügend Sicherheitsabstand enthalten. Denn neben den betrachteten Einflüssen können auch Beeinträchtigungen des Signal-Rausch-Abstands am Entscheiderpunkt (Störungseinkopplung auf die ungeschirmten S0-Adern, Sendepegeltoleranzen, Jitter, Kabeltoleranzen und Ähnliches wie in [1] und [2] beschrieben) auftreten. ZUSAMMENFASSUNG Die Aufstellung einer Dimensionierungsregel für zulässige S0-Sternkonfigurationen ist wegen der vielen Einflussgrößen und Fehlerquellen bei der Berechnung kaum möglich. Bei kurzen Leitungen unter 10 bis 30 Metern nähert man sich dem bereits genormten erweiterten passiven Busses. Bei längeren Leitungen – immer unterhalb der Laufzeitbegrenzung für Busbetrieb – offerieren die Vorschläge zur Ergänzung der EN 50098 die griffige Regel einer Begrenzung der Summenlänge aller Zweige und jeder Einzellänge des Sterns. Die Verzerrungen hängen jedoch stark von den Abschlussbedingungen der Zweige ab, sodass es ratsam erscheint, im Sinne größerer Sicherheitsabstände oder Zweiglängen wenigstens für einen teilweisen Abschluss an den TEs zu sorgen (zumal S0-Anschlussdosen mit 100-Ohm-Widerständen seit langem gängige Praxis sind). Die Simulationen und Hardware-Tests ergaben, dass eine S0Sternkonfiguration im Worst Case des hochkapazitiven S0-Kabels und mit Sicherheitszuschlägen wie folgt eingegrenzt werden kann: 1. Das NTBA arbeitet im starren TaktRegime (Modus “kurzer passiver Bus”). 2. Das NTBA oder der Sternpunkt sollte mit 100 Ohm (Sender und Empfänger) abgeschlossen sein, wenn die Sternkonfiguration mehr als vier Zweige enthält. Ein genereller Abschluss des Sternpunkts bei einer beliebigen Anzahl von Zweigen schadet nicht (Praxis bei Deutscher Telekom). 3. Ein Stern sollte nicht mehr als acht Zweige besitzen. 4. Der einzelne Zweig sollte unter 100 bis 120 Meter lang sein, und die Summe aller Zweiglängen sollte nicht über 250 bis 280 Meter gehen. 5. TE-Abschlüsse 100 Ohm: Anzahl der Zweige maximal sechs: Mindestens zwei TEs und höchstens vier TEs sollten abgeschlossen sein. Anzahl der Zweige maximal acht: drei bis vier TEs sollten mit 100 Ohm abgeschlossen sein. 6. Die Variante generell offener Zweigleitungen an den TE-Seiten bei 50-OhmAbschluss am NTBA (NIUF 440-96) ist nicht empfehlenswert (anwendbar für kürzere Zweiglängen und bei weniger als sechs Zweigen). Wird höherwertiges Installationskabel mit geringerem Kapazitätsbelag eingesetzt, können bei gleichen Abschlussbedingungen auch größere Längen zugelassen werden (z.B. 24-AWG-Kabel mit 52 nF/km: Einzelzweige maximal 150 bis 170 Meter, Gesamtlänge maximal 400 bis 450 Meter). (Dr.-Ing. Lothar Steinhäuser/db) Der Autor ist Entwicklungsingenieur für ISDN-Netzabschlussgeräte und -schnittstellen im Bereich ICN der Siemens AG in Greifswald. Er ist über lothar.steinhaeu ser@icn.siemens.de erreichbar. Literatur: [1] Standard ITU-T I.430 (11/95) [2] Standard ETS 300 012-1 (11/96) [3] Standard DIN EN 50 098-1; Proposed amendment to EN 50 098-1:1998, CLC/TC215/Sec)77; October 1999, Project 13251 [4] Technical Report ETR 080 (11/96) [5] DTAG-Richtlinie 1 TR 5 (2/99) [6] ISDN über Sternverkabelungen, LANline V/1999, S. 64-67 [7] Preiswerte ISDN-Verkabelung, LANline 4/2000, S. 53 [8] Drahtlose Datennetze, Funkschau 9/2000, S. 33 [9] Passive Sternkonfiguration am ISDN-S0-Interface. Technischer Bericht Siemens AG, Bereich ICN WN AN E13 www.lanline.de netzTECHNIK KOMMERZIELLES PEERING Der Meta-Backbone des Internets Der amerikanische Startup Internap will das Internet schneller machen – allerdings nicht für jedermann, sondern nur für Unternehmen und deren Kunden, die Internap als Service-Provider nutzen. Die Engpässe im globalen Datenverkehr sieht das Unternehmen dabei in den PeeringPoints der Backbone-Provider. Alternative private Austauschpunkte mit Anschluss an die wichtigsten kommerziellen Backbones sollen eine Ausweichroute für zahlende Kunden bieten. nfangs war das Internet ein mehr oder weniger homogenes Netzwerk, das hauptsächlich von Behörden und Universitäten für den Austausch von Daten genutzt wurde. Durch die zunehmende Nutzung des Netzes, seine wachsende Popularität und Kommerzialisierung sowie Öffnung nach außen fingen Telekommunika- A bundenen Netzen, in denen der Großteil der Daten über rund ein Dutzend große Backbones läuft. Die Kapazitäten innerhalb der Backbones sind heute durch Technologien wie DWDM in der Regel so großzügig bemessen, dass Carrier innerhalb ihrer eigenen Netze problemlos Service-Level-Agreements für garantierte Punkt-zu- Die Flaschenhälse im öffentlichen Internet-Verkehr sind die öffentlichen und privaten Peering-Points der Backbone-Provider (Quelle: Internap) tionsunternehmen an, eigene Netzwerke – auch Backbones genannt – zu installieren und die existierende Infrastruktur zu erweitern. Was also ursprünglich ein einziges Netzwerk war, entwickelte sich bis zum heutigen Tag zu einer globalen Ansammlung von hunderten miteinander ver- 94 L AN line 12/2000 Punkt-Bandbreite anbieten können. Doch wird kein ISP seinen Kunden eine bestimmten Datendurchsatz von seinem Netz zu einem Ziel in einem anderen Netz versprechen. Denn während die zusätzlichen Backbones mehr Bandbreite für den Daten- transport zur Verfügung stellten, wurden die Austauschpunkte zwischen den Netzen mehr und mehr zum Flaschenhals. Um diese “Verstopfungen” zu umgehen, richteten weltweit kommerzielle Internet-Provider zentrale Datenaustauschpunkte ein, an denen der nationale oder regionale Datenverkehr von einem Provider-Netz zum anderen übergeben wird. Als Betreibergesellschaften der Peering-Points fungieren dabei in der Regel gemeinsam betriebene, nicht gewinnorientierte Organisationen. Neben schnelleren Paketlaufzeiten, die Internet-Nutzer erfreuen, profitieren auch die Internet-Service-Provider selbst von diesem Arrangement. Denn die Mitgliedschaft in einem “Peering-Verein” macht zahlreiche bilaterale Verträge zwischen den diversen Providern überflüssig. HEISSE KARTOFFEL Das Prinzip des gemeinnützigen Datenaustausches sollte eigentlich die Probleme der Datenengpässe im Internet lösen. Doch genau in den Peering-Points sieht das amerikanische Startup-Unternehmen Internap den Schwachpunkt des “Systems Internet” und gleichzeitig die Grundlage für ihr Geschäftsmodell. Die Argumentation ist dabei weniger technischer Art, sondern liegt in der Wirtschaftlichkeit des Systems: So hätten Backbone-Provider kein ökonomisches Interesse daran, den optimalen Pfad zwischen Sender und Empfänger eines Datenpakets zu finden und die Pakete entsprechend zu routen. Denn da sich die großen Backbone-Provider nicht gegenseitig für den Zugang zu den Netzwerken entlöhnten, stamme der Verkehr auf jedem Backbone zum Großteil von nicht-zahlenden Kunden. Um nun Kosten für den Ausbau des eigenen Backbones zu sparen, hätten die Backbone-Provider ein finanzielles Interesse daran, die Datenpakete aus anderen Netzen so schnell wie möglich wieder loszuwerden. Entsprechend versuchten nun die Provider, die fremden Pakete am nächstmöglichen Peering-Punkt wieder loszuwerden. Diese Art von Routing bezeichnet Internap auch als “Hot Potato Routing”. Als Folge erhöht sich für die Pakete die Zahl der Hops zwischen Sender und Empfänger, was eine höhere Latenz- www.lanline.de netzTECHNIK zeit zur Folge hat. Zudem entsteht an den Peering-Points durch zu geringe Kapazitäten Datenverlust. Zwar kann TCP verlorene Pakete erneut anfordern, doch bereits ein Prozent Datenverlust bei der Übertragung einer Datei verdoppelt laut Internap deren Download-Zeit. Ein weiteres ökonomisches Hindernis sind laut Internap die Peering-Points selbst. Denn durch den ständig wachsenden Internet-Verkehr “verstopfen” die Peering-Points zunehmend und die Backbone-Provider hätten keine finanziellen Interessen, die Kapazität dieser Peering-Points zu erhöhen. INTERNAP-ANSATZ Die Internap-Alternative zum gemeinnützigen Peering heißt “Selbermachen”. Statt den Datenaustausch Peering-Organisationen zu überlassen, errichtete Internap in den wichtigsten Städten der USA so genannte P-NAPs (Private-Network Access Points). Dort laufen die größten internationalen Backbones zusammen, sodass Internap nach eigenen Angaben rund 95 Prozent der globalen Internet-Adressen direkt erreichen kann. Die direkten Backbone-Verbindungen in den P-NAPs sind unter anderem OC3- und DS3-Verbindungen zu Uunet, Sprint, Cable & Wireless, GTE, Digex, Psinet, AT&T, Verio und Mindspring. Dabei handelt es sich weder um freie öffentliche Peerings noch um privaten Datenaustausch. Stattdessen entrichtet Internap an jeden der angeschlossenen Backbone-Provider eine Gebühr für TransitTCP/IP-Connectivity. Die Aggregation der wichtigsten Backbones ist dabei nur eine der Grundlagen für Internaps Geschäftsmodell. Den eigentlichen Mehrwert für die Kunden ist die eigene patentierte Route-ManagementTechnologie namens Assimilator. Denn sie erweitert das BGP-Routing-Protokoll (RFC 1771) um die Berücksichtigung von Latenzzeiten als Faktor für die RoutingEntscheidung, statt wie BGP die Pakete alleine nach der Erreichbarkeit eines Hosts zu routen. Assimilator läuft auf Linux-Servern und besteht aus drei Komponenten: Der “Scrutinizer” sammelt zunächst Daten über den aktuellen Durchsatz der einzelnen Backbones. Dabei lädt das Tool regelmä- www.lanline.de Durch die Verbindung der P-NAPs mit den wichtigsten Backbones will Internap 95 Prozent der Internet-Nutzer direkt erreichen (Quelle: Internap) ßig die komplette globale Routing-Tabelle der einzelnen Backbone-Provider herunter. Dadurch erhält der Assimilator genaue Informationen darüber, wo eine bestimmte IP-Adresse beheimatet ist und zu welchem ISP sie gehört. Diese Daten gibt der Scrutinizer an den “Cogitator” weiter. Diese Komponente analysiert die verfügbaren Routen, wählt den optimalen Pfad für Verbindungen zu den Internap-Kunden aus und informiert das Internap-NOC (Network Operation Center) über Störungen in einzelnen Backbones. Der “Actualizer” schließlich programmiert die vom Cogitator ermittelten Routen in die Route-Server der P-NAPs. KOMMERZ Wie anfangs erwähnt, ist Internaps ökonomische Kritik am PeeringModell gleichzeitig Geschäftsgrundlage des eigenen Angebots. Daher stehen die P-NAPs auch nicht der Allgemeinheit, sondern nur zahlenden Internap-Kunden zur Verfügung. Dies sind einerseits Unternehmen wie Amazon.com oder The Motley Fool, die ihre Server in den InternapFacilities unterstellen (Server Collocation). Zudem hat Internap Standleitungen von T1 (1,54 MBit/s) bis OC3 (155 MBit/s, Packet over SONET) im Angebot. Collocation-Kunden profitieren dabei von dem optimierten Routing der Pakete vom eigenen Server zum Internet-Surfer, was aus Sicht des Server-Besuchers zu einem schnelleren Seitenaufbau führt. Andererseits erhöhen die Internap-Kunden die Erreichbarkeit ihrer Server, da bei Störungen in einem Backbones die Pakete auf einen anderen Backbone umgeleitet werden. Darunter leidet zwar die Antwortzeit, doch ist eine langsame Verbindung besser als gar keine. Um zu sehen, welchen Weg Pakete zu einem bestimmten Ziel nehmen, bietet Traceroute.org (www.traceroute. org) eine weltweite Übersicht Web-basierender Traceroute-Server. Während Internap in den USA bereits gut vertreten ist, sieht es in Europa noch etwas “dünn” aus. Der Schritt über den Teich soll jedoch noch im Jahr 2000 vollzogen werden. In Zusammenarbeit mit dem europäischen Partner Cityreach will Internap P-NAPs in London und Amsterdam eröffnen. Zudem ist die Errichtung eines europäischen NOCs in der Nähe von Amsterdam geplant. (Georg von der Howen) Info: Internap Tel.: 001/206 441-8800 Web: www.internap.com L AN line 12/2000 95 netzTECHNIK DHCP UND WINDOWS 2000 SERVER, TEIL 2 Automatische Konfiguration Die IETF (Internet Engineering Task Force) hat das Dynamic Host Configuration Protocol (DHCP) im Rahmen seiner “Requests for Comments” (RFCs) definiert. Bereits unter Windows NT unterstützt Microsoft diesen Standard. Doch bei Windows 2000 Server wurde der DHCP-Server erweitert. ie Version des DHCP-Servers, der bei Windows 2000 Server zum Einsatz kommt, offeriert einige Verbesserungen. Zu den wichtigsten, die auch bereits im ersten Teil dieses Beitrags (siehe LANline 11/2000, ab Seite 80) besprochen wurden, gehören: – die Integration von DHCP mit dem DNS, – die optimierte Überwachung und verbessertes Reporting (Statistik) in Bezug auf die DHCP-Server, – zusätzliche DHCP-Optionen (herstellerspezifische wie auch die “Class-IDOption”), – ein verbesserter DHCP-Manager sowie – die Zuteilung von Multicast-Adressen. D Bei der Zuweisung von MulticastAdressen handelt es sich um eine neuere Art der Adressierung in einem TCP/IPNetzwerk. Sie wird ebenfalls von der IETF standardisiert und findet in den Bereichen Verwendung, wo es um die Übertragung von einem “Sender” zu einer festgelegten Gruppe von “Empfängern” geht. Dabei handelt es sich um eine Punkt-zu-Mehrpunkt-Übertragung. Hierbei gibt es einen Unterschied zu den Broadcast-Übertragungen, die sich an alle Systeme in einem Subnetz richten. Denn das Multicasting richtet sich nur an eine Gruppe von Systemen. Als weitere neu hinzugekommene Aspekte des DHCP von Windows 2000 Server sollen die Punkte: Bild 1. Der Ausgangspunkt für die Installation des DHCP-Dienstes auf dem Server zeigt sich sehr übersichtlich 98 L AN line 12/2000 – automatische Konfiguration der Clients, – Erkennen von weiteren sich unkooperativ verhaltenden DHCP-Servern und – Zusammenarbeit mit dem ClusteringAnsatz von Windows 2000 in dieser Ausgabe vorgestellt werden. Eine Verbesserung kommt mit der automatischen Konfiguration von IPAdresse und Subnetzmaske eines Clients ins Spiel, wenn der Client in einem kleinen Netzwerk gestartet wird, in dem kein Zugriff auf einen DHCP-Server möglich ist. Wird ein Microsoft-TCP/IP-Client installiert und bezieht er seine Informationen über die Protokollkonfiguration dynamisch von einem DHCP-Server, wird der DHCP-Client bei jedem Start des Systems aktiv. Der DHCP-Client-Dienst folgt dann einem zweistufigen Prozess, um den Client entsprechend zu konfigurieren. Zunächst versucht er einen DHCP-Server zu finden und von ihm die Konfigurationsinformationen zu erhalten. Klappt das nicht, so konfiguriert sich der Client (wenn er auf einer Windows2000-Plattform zum Einsatz kommt) selbst mit einer “zufällig” erzeugten IPAdresse im Subnetzbereich 169.254.0.0. Dieser Bereich wurde von Microsoft beim NIC (Network Information Center) für die automatische IP-Konfiguration reserviert, sodass gewährleistet ist, dass solche Adressen im Internet nicht vorkommen. Bild 2. Wie nicht anders zu erwarten, hilft bei der Bereichsangabe für den DHCP-Service ein entsprechender Assistent www.lanline.de netzTECHNIK Danach sendet der Client einen “Ping” auf diese Adresse und stellt so letztendlich sicher, dass keine IP-Adresse im Netzwerk doppelt vergeben ist. Im anderen Fall hat ein DHCP-Client bereits eine Lease von einem DHCP-Server bekommen. Wenn nun der Client versucht, diese Zeitdauer für die Gültigkeit der Lease zu verlängern, und dabei keine Verbindung mit dem DHCP-Server mehr bekommt, dann versucht er einen Ping DHCP-Server auf einem Netzwerkgerät ihre Dienste verrichten, ohne dass der Administrator dies bewusst und unbedingt haben will. Ein typisches Beispiel für eine derartige Konstellation ist ein DHCP-Server, der so angelegt ist, dass er in einem kleinen Segment IP-Adressen vergibt. Falls diese Adressen “unglücklich” gewählt wurden, kann es durchaus vorkommen, dass auch andere Clients als die im kleinen Subnetz ihre Adressen von dieSichere Netzwerke mit Windows 2000 sem DHCP-Server anfordern. Dazu Diese Artikelreihe stammt muss allerdings der zum überwiegenden Teil aus “DHCP Relay dem Buch Agent” installiert sein, denn nur so “Sichere Netzwerke mit Windows 2000” können Clients aus anderen Subnetzen (ISBN 3-8272-2014-9) des von diesem DHCPVerlags Markt & Technik. Server ihre Adressen beziehen, und Wir danken für die freundliche Genehmigung, diese Teile der DHCP-Server veröffentlichen zu dürfen. muss zufällig auch gerade einen Adressbereich aus dem Subnetz des Relay Agents besitzen. In diesem Fall auf das Default-Gateway (das in der Le- ist Ärger in Form von Adresskonflikten ase eingetragen ist) abzusetzen. Ist dieser vorprogrammiert, der sich zudem nur Versuch von Erfolg gekrönt, geht der sehr schwer eingrenzen lässt. Denn meist Client davon aus, dass er sich nicht an ei- wurde der “private DHCP-Server” von ner anderen Stelle im Netzwerk befindet jemand anderem eingerichtet, als demjeund nimmt die vergebene Lease. An- nigen, der für den Betrieb der “übergeschließend versucht der Client erneut zur ordneten” DHCP-Server verantwortlich “Halbzeit”, die Lease wieder zu verlän- zeichnet. Generell sollte man derartige Problegern. Schlug aber der Ping zum Default- me durch gute “voraussehende” PlaGateway fehl, geht der Client davon aus, nung gar nicht erst entstehen lassen. Dadass er sich in einem anderem Teil des her die Devise – mehr schon eine golNetzwerks befindet, auf dem sich kein dene Regel – man möge doch möglichst DHCP-Server befindet und konfiguriert wenige DHCP-Server in seinem Netzsich selbst neu. Allerdings versucht der werk einsetzen. Zufälligkeiten dürfen DHCP-Client dann alle fünf Minuten, beim Netzwerkdesign nicht Tür und Tor geöffnet werden. Im konkreten Fall einen DHCP-Server zu lokalisieren. Ein anderer wichtiger Punkt ist die heißt das, man muss den Kreis derer Kooperation mit zusätzlichen DHCP- massiv einschränken, die Arbeiten wie Servern, die in einem Netzwerk instal- das Installieren von DHCP-Servern in liert sind. Dabei kann es sich durchaus einzelnen Segmenten durchführen dürum “Wildwuchs” handeln, wenn etwa fen. www.lanline.de L AN line 12/2000 99 netzTECHNIK Die DHCP-Server-Version von Win- DHCP-Server seinen Dienst aufnimmt, dows 2000 Server kann mit diesen überprüft er mit Hilfe eines DHCPINProblemfällen umgehen und eventuelle FORM-Datenpakets zuerst, ob er im Adressierungskonflikte ausräumen. AD in der Liste steht. Ist das der Fall, Denn es gibt Hilfsmittel, mit denen fährt er den DHCP-Server-Dienst hoch. sich nicht zulässige DHCP-Server in Alle fünf Minuten sendet er neue einem Netzwerk aufspüren lassen – be- DHCPINFORM-Pakete, um seine Besonders komfortabel sind sie allerdings rechtigungen zu prüfen. Außerdem ernicht (ein Windows-2000-DHCP-Ser- kennt er so, ob auch noch andere Verver sendet alle fünf Minuten einen zeichnisdienste aktiv sind und prüft DHCPINFORM-Broadcast aus). Zudem auch dort seine Berechtigung ab. ist eine weitere Kontrolle hinzugekommen: Früher war quasi jeder Administrator in der Lage, einen DHCPServer installieren und verwalten zu können. In der aktuellen Version aber muss er erst über eine “Autorisierungshürde” kommen, ehe er sich dieser Aufgabe widmen darf. Unter Windows 2000 haben nur Mit- Bild 3. Die Optionen für das DHCP können gleich bei der ersten Instalglieder der Gruppe lation angegeben oder auch später hinzugefügt werden Organisations-Admins das Recht, diese Aufgaben zu übernehmen. Sie können Findet der neue DHCP-Server einen aber – so lautet die Devise unter Win- Verzeichnisdienst und stellt er dann fest, dows 2000 – diese Rechte auch an ande- dass er nicht auf der Liste der autorisierre Gruppen vergeben. ten DHCP-Server steht, nimmt er an, dass Falls ein Netzwerkdesign auf dem Ac- er auch nicht berechtigt ist und reagiert tive Directory (AD) basiert, kann dies auch dann auf keine Anfragen von hierbei wertvolle Dienste leisten, ist es Clients. doch für die Rechtevergabe zuständig. Im Anders verhält sich die Sache, wenn AD werden nun Einträge geführt, in de- ein DHCP-Server kein Server in einer nen die zugelassenen DHCP-Server ver- Domäne ist. Als ein Mitglied in einer zeichnet sind. Wenn ein DHCP-Server in Arbeitsgruppe wird der folgende Weg einem AD-basierten Netzwerk seine Ar- eingeschlagen: Der Server sendet eine beit aufnimmt, kann nun über das AD sei- Broadcast-Nachricht (DHCPINFORM) ne Berechtigung geprüft werden. in das Netzwerk. Jeder andere Server im Daraufhin kann ein Organisations-Ad- Netzwerk, der diese Nachricht bemin reagieren und den neuen Server kommt, antwortet mit einem Acknowentweder berechtigen oder aber die ent- ledgement (die DHCPACK-Nachricht) sprechende Berechtigung nicht erteilen. und teilt dem Anfrager mit, zu welcher Die Liste mit den autorisierten DHCP- Domäne er selbst gehört. Wenn dadurch Servern lässt sich mit dem DHCP-Snap- ein DHCP-Server einer Arbeitsgruppe in der MMC im AD erzeugen. Wenn ein einen DHCP-Server als Mitglied einer 100 L AN line 12/2000 Domäne erkennt, geht der DHCP-Server in der Arbeitsgruppe davon aus, dass er für diese Domäne nicht autorisiert ist und beantwortet folglich auch keine DHCP-Anfragen aus diesem Bereich. Erkennt ein zu einer Arbeitsgruppe gehöriger DHCP-Server einen anderen Server in der Arbeitsgruppe, ignoriert er ihn. Somit können mehrere Server innerhalb einer Arbeitsgruppe aktiv sein – solange nur kein Verzeichnisdienst existiert. Ist ein DHCP-Server in einer Arbeitsgruppe am Laufen, untersucht er dennoch alle fünf Minuten, ob nicht ein weiterer DHCP-Server dazugekommen ist. Ist dieser Fall eingetreten – etwa weil ein autorisierter DHCPServer einer Domäne später gestartet wurde – stellt der DHCP-Server der Arbeitsgruppe seine Aktivität ein. INTEGRATION IN DAS CLUSTERING Zu- vor war bereits die Rede davon, dass zu einem DHCP-Server auch ein Backup-System gehört, das nach einiger “Handarbeit” durch den Administrator dessen Aufgaben übernehmen kann, wenn der DHCP-Server ausfällt. Damit hat der Administrator zwar eine höhere Ausfallsicherheit für diesen wichtigen Dienst seines Netzwerks erreicht, doch geht das auf Kosten der Verwaltungsarbeit. Hier bringt das Clustering von Windows 2000 seine Vorteile ins Spiel. Sie lauten: – höhere Ausfallsicherheit, – weniger Wartungsaufwand sowie – bessere Skalierbarkeit. Durch das “Windows-Clustering” ist es möglich, einen abgestürzten Server zu erkennen und seine Anwendungen oder Dienste schnell auf dem noch aktiven Server wieder anlaufen zu lassen. Die Benutzer bemerken diesen Übergang höchstens mit einer vorübergehenden Pause des Dienstes. Zudem steht es einem Administrator frei, ausgehend von der Belastung der einzelnen Komponenten in einem Cluster die Last innerhalb des Verbunds zu verteilen. Dies hilft bei einer manuellen Lastverteilung sowie beim Aktualisieren eines www.lanline.de netzTECHNIK Servers, wenn die anderen Mitglieder seine Arbeit in der Zwischenzeit übernehmen sollen. Für den DHCP-Server von Windows 2000 bedeutet dies, dass er sozusagen auf einem virtuellen System – also dem Cluster – installiert wird. Stoppt ein Knoten im Cluster seine Arbeit, übernehmen die verbliebenen aktiven den DHCP-Service – einschließlich aller wichtigen Informationen wie beispielsweise den Namensraum. Für den Client hat dies keine Änderungen zur Folge, er sieht wie bisher nur die IP-Adresse des geclusterten DHCP-Servers. Allerdings trübt ein Wermutstropfen diese rosigen Aussichten: Das Clustering ist erst ab der vergleichsweise teuren AdvancedServer-Version von Windows 2000 verfügbar. sein kann. Als nächste Aktion ist aus dem Hauptmenü unter “Vorgang” der Punkt “Server hinzufügen” anzugeben. Darauf erscheint ein Auswahldialog, um zu klären, auf welchen Server DHCP installiert werden soll. Hier ist die Option “Dieser Server” anzugeben und der Name des Systems einzugeben. Nachdem der erste Server mit DHCP installiert ist, muss mit dem Bereichserstellungsassistenten der Adressbereich festgelegt werden. Dazu ist der KONFIGURATION DES DHCP-SERVERS UNTER WINDOWS 2000 Nachdem die technischen Hintergründe weitestgehend erklärt sind, geht es nun an die Konfiguration des DHCP-Servers. In der üblichen Assistenten-Vorgehensweise hilft das System dem Administrator dabei. Hier eignet sich beispielsweise der für viele Aufgaben vorgesehene Assistent “Windows 2000 Server konfigurieren”. Wird hier der Punkt Netzwerk angeklickt, stehen vier untergeordnete Möglichkeiten durch diesen Assistenten offen: – DHCP, – DNS, – Remote-Zugang und – Routing. Ein Klick auf die Option DHCP startet die Seite mit den Informationen zum DHCP. Zuerst stehen zwei Möglichkeiten offen: das Installieren und das Verwalten von DHCP. Logischerweise ist hier Installieren anzuklicken. Damit öffnet das System den DHCP-Manager. Bild 1 zeigt das entsprechende Fenster. Der DHCP-Manager zeigt an, dass der Status für den Server “nicht autorisiert” beträgt. Dies ist auch sinnvoll, da der DHCP-Dienst noch nicht installiert und somit auch noch nicht in der entsprechenden Liste im AD eingetragen 102 L AN line 12/2000 Bild 4. Es stehen eine Vielzahl von Optionen für den DHCP-Server zur Verfügung DHCP-Manager zu starten. Ein Klick mit der rechten Maustaste auf das Symbol für den Server in der Konsolenstruktur und danach auf den Punkt “Neuer Bereich” erfüllt diese Aktion. Auch hier hilft einem ein Assistent, der “Bereichserstellungs-Assistent” auf den richtigen Weg (Bild 2). Zuerst ist ein Name für den IP-Adressenbereich anzugeben. Dann folgt die erste vom DHCP-Server zu vergebende IP-Adresse (im Beispiel die 194.168. 102.010) und anschließend die letzte des Bereichs (die 194.168.102.099). Die zugehörige Subnetzmaske erzeugt das System aus den bisherigen Angaben selbst – ein Überschreiben des Werts ist aber möglich. Anschließend ergibt sich noch die Möglichkeit, innerhalb dieses Bereichs bestimmte Unterbereiche an IP-Adressen von der Ver- gabe auszuschließen. Ein gutes Netzwerkdesign wird dies allerdings nicht benötigen, doch bei einer bestehenden Infrastruktur kann diese Option von großem Nutzen sein. Als nächster Schritt ist noch die Zeitdauer für eine “Lease” anzugeben. Die Voreinstellung beträgt acht Tage – man sollte sich diesen Wert genau überlegen. Kommen viele mobile Systeme oder schlanke Clients zum Einsatz, sollte ein kürzerer Wert in Betracht gezogen werden. Doch die Faustregel lautet: Je länger die Lease-Dauer, umso mehr Performance bleibt übrig, weil weniger Verwaltungsaufwand zu leisten ist und weil weniger Verkehr auf dem Netzwerk auftritt. Andererseits kann eine zu großzügige Festlegung der Lease zu Problemen mit den verfügbaren IPAdressen im Bereich führen. Daher sind speziell in komplexen Designs Kompromisse angesagt. Im nächsten Schritt werden vom Assistenten die Optionen für das DHCP festgelegt. Danach beendet der Bereichserstellungs-Assistent seine Dienste. Sollen die DHCP-Optionen später konfiguriert werden, ist im DHCP-Manager auf das Verzeichnis “Server-Optionen” zu klicken und dann über die rechte Maustaste das Kontextmenü aufzurufen. Hier lautet der erste Punkt “Optionen konfigurieren”. Das System zeigt hier eine Vielzahl von unterschiedlichen Optionen – unterteilt nach “Allgemein” und “Erweitert” (Bild 4). Nachdem die für das Netzwerk zutreffenden Optionen festgelegt sind (wichtig sind hierbei noch die Herstellerklassen-Optionen, die Windows2000-Optionen enthalten zum Beispiel noch die Option 001, mit der die “NetBIOS over TCP/IP”-Schnittstelle deaktiviert wird), werden mit “OK” die Einstellungen bestätigt. Ein Klick mit der rechten Maustaste in der Konsolenstruktur auf den neuen Bereich und ein anschließendes “Aktivieren” führt diese Änderungen dann auch am DHCP-Server endgültig durch. (Rainer Huttenloher/mw) www.lanline.de netzTECHNIK BUCHBESPRECHUNGEN WINDOWS 2000 DNS Wer Windows 2000 zur Seele seines Netzwerks machen will – oder muss – der hat einige Aktionen zu erledigen, die die Infrastruktur seines Netzwerkdesigns betreffen. Die gesamten Vorteile von Windows 2000 stehen erst dann zur Verfügung, wenn das Active Directory zum Einsatz kommt. Denn damit lassen sich die netzwerkweiten Ressourcen zentral verwalten und der Zugriff auf sie sicher abwickeln. Ein wesentlicher Aspekt in diesem Zusammenhang ist der Einsatz von TCP/IP als Netzwerkprotokoll und des Domain-Name-Systems (DNS) als ”Namensdienst“, der die Abbildung von verständlichen Namen in IP-Adressen abwickelt. Im Lieferumfang von Windows 2000 Server, Windows 2000 Advanced Server und Windows 2000 Datacenter Server ist eine Microsoft-eigene Variante des DNS enthalten. Hierbei setzt Microsoft auf eine selbstständige Implementierung, die sich an die neueren Vorgaben seitens der Internet Engineering Task Force (IETF) mit deren Standards (RFC, Request for Comments, genannt) hält. Eine detail- Autoren: Roger Abell, Herman Knief, Andrew Daniels und Jeffrey Graham New Riders ISBN 0-7357-0973-4 US-Preis: 39,99 Dollar 104 L AN line 12/2000 lierte Beschreibung von Microsofts DNS wie es bei Windows 2000 mitgeliefert wird, bekommt der Leser bei dem Werk ”Windows 2000 DNS“ in die Hand. Dieses zirka 450 Seiten starke englischsprachige Buch befasst sich im ersten Teil mit den allgemeingültigen Prinzipien des Domain- Name-Systems. Hier bekommt der Leser alle wichtigen Begriffe und Details vermittelt. Die Kapitel in diesem Umfeld greifen auf, wie DNS arbeitet, welche Arten von DNSServer-Typen existieren, wie sich die Domain-Information zusammensetzt, wie Abfragen an die DNS-Server abgesetzt werden und wie die Zusammenarbeit mit Internet-Service-Providern in diesem Zusammenhang funktioniert. Der zweite Teil des Buchs dreht sich dann in erster Linie um die DNS-Server selbst. Breiten Raum räumen die Autoren hierbei dem ”Dynamischen DNS“ und dem Active Directory (AD) ein, das mit Windows 2000 zum Einsatz kommt. Vor allem die Integration des DNS in das AD – mit all ihren Konsequenzen – wird hier vorgestellt. Des Weiteren kommt die Kooperation mit den BINDbasierenden DNS-Servern zur Sprache. Dazu erörtert das Werk die Kommunikation zwischen den Name-Servern, bespricht die Migration auf das DNS von Windows 2000 und zeigt zudem, wie ein BIND-basierendes DNS auf WindowsSystemen arbeitet kann. Danach – so sind sich die Autoren sicher – kann sich der Leser daran wagen, seinen DNS-Server auszuwählen und zu konfigurieren. Wichtige Kriterien sind hier die Anzahl der einzusetzenden DNS-Server, die Wahl, wie viele Zonen und/oder Domänen man einsetzen soll und ob das AD für den speziellen Fall auch große Vorteile offeriert. Danach geht es an den Aspekt der Sicherheitsproblematik, der durch den Einsatz eines dynamischen DNS durchaus schwer wiegen kann. Das folgende Kapitel dreht sich dann um die Konfiguration des DNS-Servers von Windows 2000. Bei dieser Aufgabe unterstützt einen zwar ein Assistent von Windows 2000, doch die Hilfestellung im Buch erweist sich als überaus nützlich. Hier wird jede notwendige Entscheidung kommentiert und ausführlich erläutert, welche Auswirkungen die jeweiligen Angaben nach sich ziehen. Der dritte große Teil des Werks befasst sich danach mit dem Betrieb des DNS von Windows 2000. Hier treten alle Hilfsmittel auf den Plan, mit denen der Administrator das weite Feld der Problembehebung bearbeiten kann. Zudem spendieren die Autoren aus der täglichen Praxis einige wertvolle Tipps. Die abschließenden Kapitel beinhalten die Themen ”Konfiguration eines Windows-Clients“, ”Einbinden der DHCP-Dienste“, ”Namensauflösung mit WINS“ sowie den Bereich ”NetBIOS“. Quasi als Abrundung zeigt der Anhang des Buchs die LMHOSTS- und HOSTSDateien, die zum Thema DNS gehörigen RFCs, das Registrieren der Adressen im Internet (ist nur für die USA sinnvoll) sowie Beispiele für die Auflösung von DNS-Anfragen. Mit einem kurzen Abriss über die Zukunft des IP – das IPv6 – und dem Thema ”Multihomed Windows Server“ schließt das Buch. Mit diesem Werk bekommt der Leser alles Wissenswerte in die Hand gegeben, das er für die Installation und den Betrieb von ”Windows 2000 DNS“ benötigt. Daher trifft das Buch für diese Aufgabenstellung bestens zu. Die Bewertung: Für Profis sehr empfehlenswert. INTERCONNECTING CISCO NETWORK DEVICES Die Angaben über den Marktanteil an Switching- und Routing-Produkten schwanken zwar in ihren Absolutwerten, doch selbst die größten Skeptiker sind sich einig: Sagt man Internet, meint man Cisco – zumindest was die Netzwerkinfrastruktur anbelangt. Wie schon bei den Netzwerkbetriebssystemen auf Servern oder Workstations, hat dieser Hersteller auch Schulungsreihen wie CCNA (Cisco Certified Network Associate) oder CCIE (Cisco Certified Internetwork Expert) aufgelegt. Wer diese Ausbildung absolviert und die einschlä- www.lanline.de netzTECHNIK BUCHBESPRECHUNGEN Hrsg. Steve McQuerry Verlag M&T/Cisco Press ISBN 3-8272-5799-9 Preis: 129,– Mark gigen Tests bestanden hat, der darf sich dann mit der Bezeichnung ”Cisco Certified Network Irgendwas“ schmücken. Neben den üblichen Workshops/Lehrgängen benötigt der Interessent aber auch noch vernünftiges Material, das mittlerweile von Cisco Press/Markt und Technik in Buchform – und das auch in Deutsch – vorliegt. So trägt der Titel ”Interconnecting Cisco Network Devices“ auch in der Unterzeile den Hinweis, dass er ”das offizielle Kursbuch für die CCNA-Zertifizierung mit der Prüfungsnummer 640507“ darstellt. Damit ist der Verwandtschaftsgrad schon abgesteckt. Aufbauend auf dem gleichnamigen weltweit gültigen Examen demonstriert dieser Lehrband wie sich Cisco-Switches und -Router in Multiprotokollnetzwerken konfigurieren lassen. Das Thema ”Interconnecting Cisco Network Devices“ wurde aus anderen Kursen wie ”Introduction to Cisco Router Configuration“, ”Cisco Routers and LAN Switches“ und ”Cisco LAN Switch Configuration“ entwickelt. Cisco selbst empfiehlt diesen Stoff als Grundkurs für die Vorbereitung zum Certified Cisco Network Associate. Das Buch bringt dem Leser Informatio- www.lanline.de nen über die Installation, die Konfiguration sowie die Fehlersuche bei den einschlägigen Cisco-Produkten. Der Leser wird durch fünf Teilabschnitte geführt: – Cisco-basierende Netzwerke; darunter Fallen Aspekte wie Montage, Verkabelung, Inbetriebnahme, Konfiguration und Verwaltung der Geräte, – Verbindung von Catalyst-Switches; hier werden die grundlegenden Switching-Mechanismen wie auch die VLAN-Konfiguration besprochen, – Verbindung mit Cisco-Routern, hier kommen Punkte wie TCP/IP, IP-Routing, Traffic-Management aber auch die IPX-Konfiguration zur Sprache, – Erweiterungen des Netzwerks durch WAN-Schnittstellen; wichtige Aspekte in diesem Kontext sind Punktzu-Punkt-Verbindungen, ISDN und Frame-Relay-Verbindungen. Weitere Kapitel greifen das eher seltenere Protokoll Appletalk auf. Zudem kommt auch die Konfiguration sowie das Arbeiten mit der Cisco-700-Serie nicht zu kurz. Nach jedem Kapitel kann der Leser seinen Wissenstand überprüfen. Dazu braucht er lediglich die Testfrage beantworten. Die Auflösung der einzelnen Prüfungen finden sich dann im Anhang. An diesem Buch hat vor allem der Praxisbezug sehr gut gefallen. Wie schon aus dem Titel ersichtlich ist, dreht sich alles um die Cisco-Produkte. Doch dazu bekommt man auch sehr gutes Know-how vermittelt. Ideal für die Arbeit mit diesem Buch wäre natürlich eine Konstellation, bei der man die verschiedenen dargestellten Aktivitäten gleich in die Praxis umsetzen kann. Doch in der Regel arbeitet das CiscoEquipment in einer Firma immer im Produktivbetrieb, so dass ein ”Ausprobieren“ und ein ”Lernen durch Fehlermachen“ nicht angeraten erscheint. Aber Gott sei Dank gibt es ja mittlerweile auch Firmen, die über das Internet Zugriff auf eine Cisco-Testumgebung bekommen kann. Das Buch selbst verdient auf alle Fälle die Wertung: sehr empfehlenswert. (Robert Runge/rhh) LANline 12/2000 105 netzTOOLBOX IM TEST: DRIVE IMAGE, VERSION 4 Systemkopie auf Compact Disc Drive Image von Powerquest sichert ganze Festplattenpartitionen in Image-Dateien, sodass sich ein System schnell wieder herstellen lässt. Einsatzzwecke sind einerseits die Datensicherung und andererseits die Installation von “frischen” Systemen in großen Stückzahlen. Die Version 4 kann jetzt Image-Dateien direkt auf CD-Rs und CD-RWs brennen. Zudem prüft die Software die Integrität von Images, kann Images auf NTFSDateisystemen ablegen und enthält einen verbesserten Image-Editor. as Funktionsprinzip von Drive Image ist so einfach wie effizient: Die Software kopiert eine ganze Partition einer Festplatte Sektor für Sektor in eine so genannte Image-Datei. Da Drive Image den vollen und exklusiven Zugriff auf die zu sichernde Partition benötigt, läuft das Programm unter DOS oder dem Kommandozeilenmodus von Windows 9x. Daraus folgt, dass das Programm die Image-Datei nur auf einem Datenträger ablegen kann, den das darunter liegende Betriebssystem D unterstützt – also FAT (unter DOS) oder FAT/FAT32 (unter Windows 9x). Die neue Version 4 kann zusätzlich Images auf NTFS-Dateisystemen ablegen. Bei der Wiederherstellung eines Images wird die Datei zurück auf die ursprüngliche oder eine andere Partition kopiert. Diese Art der Datensicherung ist so gründlich, dass nach der Wiederherstellung sowohl der BootSektor als auch die Fragmentierung der Festplatte dem Originalzustand entsprechen. Übersichtlich zeigt Drive Image bei allen Aktionen die Partitionen des lokalen Rechners grafisch sowie in einer Liste an 106 L AN line 12/2000 EINSATZBEREICHE Die Software lässt sich beispielsweise hervorragend in Testumgebungen einsetzen, die zur Evaluierung eines neuen Produkts eine “frische” Betriebssystemumgebung voraussetzen. Dabei werden Betriebssysteme direkt nach ihrer Installation “eingefroren” und anschließend mit Drive Image auf CD gesichert. Nach Abschluss eines Tests kann Drive Image die Abbilder jederzeit wieder “auftauen” und eine saubere Umgebung für den nächsten Test herstellen. Zur Datensicherung von Servern ist Drive Image allerdings nur bedingt geeignet, da die Software eine Partition nicht im laufenden Betrieb in eine Image-Datei kopieren kann. Neben der Datensicherung lässt sich die Software zur Masseninstallation von betriebsfertigen Systemen nutzen. So kann der Administrator oder ein VAR (Value Adding Reseller) ein Image eines Betriebssystems inklusive Applikationen auf zahlreiche Arbeitsstationen mit identischer Hardware überspielen und sich somit die individuelle Installation jedes einzelnen Rechners ersparen. Zudem kann Drive Image auch Partitionen direkt auf eine andere Platte kopieren. Das ist zum Beispiel nützlich, wenn eine kleine Systemplatte durch eine größere ersetzt werden soll. ARBEITSWEISE Da nicht jedes System eine Festplattenpartition mit ausreichend Platz für eine Image-Datei bietet, reduziert die Software die Größe der Dateien auf mehrere Arten. So kopiert Drive Image bei den Dateisystemen FAT, FAT32, NTFS und Linux Ext2 nur die belegten Sektoren. Das ebenfalls von Powerquest erhältliche Server Image beherrscht dieses Verfahren auch für Netware-Volumes. Zudem kann die Software Images in zwei Stufen komprimieren, um Platz zu sparen. Für das Sichern von Image-Dateien auf Wechseldatenträgern kann der Administrator festlegen, dass die Image-Datei aus mehreren Teilen bestimmter Größe bestehen soll (ähnlich wie es beispielsweise bei ZIP- und RAR-Archiven möglich ist). Zum Schutz vor fremdem Zugriff lassen sich ImageDateien mit einem Kennwort versehen, das bei der Wiederherstellung angegeben werden muss. Da unkomprimierte Images alle www.lanline.de netzTOOLBOX Dateien im Klartext enthalten, schützt das Kennwort allerdings nicht davor, dass jemand die Dateiinhalte betrachtet. Die wohl wichtigste Neuerung der Version 4 ist die Fähigkeit, Images direkt auf CD-Rs und CD-RWs zu brennen, und zwar maximal mit vierfacher Geschwindigkeit. Somit entfällt der Umweg über eine Festplatte oder die noch unbequemeren Wechselmedien, wenn Images ohnehin auf CD archiviert werden sollen. Allerdings kann Drive Image nur auf Brenner am SCSI- oder IDE-Bus zugreifen. Brenner, die über andere Schnittstellen wie USB, Firewire, Parallel-Port und PCMCIA angeschlossen sind, kann die Software nicht ansprechen. Zudem muss der Brenner den so genannten Multi Media Command Set Version 2 (MMC-2) verstehen. INSTALLATION Obwohl die Software letztendlich nur unter DOS oder der Kommandozeilenversion von Windows 9x www.lanline.de läuft, lässt sie sich unter allen WindowsVersionen installieren. Bei der Ausführung unter Windows 9x wechselt das Betriebssystem zunächst in den DOS-Modus. Bei NT Workstation und Windows 2000 Professional startet das System neu, um Drive Image direkt beim Systemstart aufzurufen. Dazu wird das System vorübergehend unter dem freien Caldera DOS gestartet. Beim nächsten Neustart bootet das System dann wieder in NT oder 2000. Auch Windows ME kennt – im Gegensatz zu seinem Vorgänger Windows 98 – keinen DOSModus. Hier wird Drive Image wie bei NT/2000 beim nächsten Neustart aufgerufen, allerdings im Kommandozeilenmodus von Windows ME. Damit kann Drive Image nur unter Windows 9x und ME Images auf FAT32-Laufwerken ablegen. Alternativ lassen sich mit der Software zwei Disketten erstellen, von denen Drive Image startet. Die erste Diskette ist eine Boot-Diskette und enthält Treiber für eini- ge SCSI-Controller von Adaptec, für Iomega-Laufwerke (ZIP und JAZ) und für einige MO-Laufwerke mit SCSI- und ATAPI-Schnittstelle. Will der Benutzer einen anderen Controller oder andere Laufwerke verwenden, muss er die Disketten per Hand anpassen. Wenn der Anwender diese Disketten unter NT/2000 erstellt, erhalten sie wiederum Caldera DOS als Betriebssystem, ansonsten Windows 9x oder Windows ME. Da die Disketten universell verwendbar sind, bieten unter 9x/ME erstellte Disketten die größte Flexibilität, weil diese Betriebssysteme auch FAT32 unterstützen. Nicht installieren lässt sich Drive Image auf NT/2000-Servern – hier will Powerquest offenbar das teurere und etwas leistungsfähigere Server Image verkaufen. Neben der Imaging-Lösung installiert das Setup-Programm die Windows-Anwendung “Drive Image File Editor”. Sie dient zum Bearbeiten und Verändern von L AN line 12/2000 107 netzTOOLBOX Image-Dateien. Der Editor kann eine bestehende Image-Datei in eine neue kopieren und dabei beispielsweise die Komprimierung verändern oder die Datei in mehrere kleine aufteilen, damit sie auf Wechselmedien Platz finden. Auch den umgekehrten Weg – also das Zusammenfassen einer mehrteiligen Image-Datei zu einer großen – kann der Administrator beschreiten. Zudem hat der Systemverwalter die Möglichkeit, Image-Dateien nachträglich mit einem Kennwort zu versehen. Besonders praktisch ist die Funktion, einzelne Dateien aus einem Image wieder herzustellen. So kann der Administrator schnell Sinnvoll kann dies sein, um Fehler – wie etwa einen falschen Partitionstyp – zu beheben. Andere nützliche Funktionen sind direkt in Drive Image integriert. Beispielsweise lassen sich Partitionen “verstecken”, wobei lediglich der Partitionstyp geändert wird. Dadurch erkennen Betriebssysteme auf den entsprechenden Partitionen keine gültigen Dateisysteme. Somit lassen sich einzelne Partitionen schnell und unkompliziert vor Änderungen schützen. Ebenfalls auf der Installations-CD von Drive Image 4 befindet sich der bisher separat erhältliche Datakeeper, der unabhängig von Drive Image installiert wer- Der Datakeeper überwacht Verzeichnisse und kann alle Änderungen an Dateien rückgängig machen einen Blick in einer Konfigurationsdatei werfen, ohne das gesamte Image in eine freie oder nicht benötigte Partition kopieren zu müssen. Neu im Image-Editor ist eine Testfunktion, welche die Integrität einer ImageDatei überprüft. Neben Drive Image kopiert das SetupProgramm den Partitionstabelleneditor auf die Festplatte. Allerdings fehlt eine entsprechende Verknüpfung in der Programmgruppe, sodass der Editor nur denjenigen Benutzern zur Verfügung steht, die von der Existenz dieser Anwendung wissen. Mit dem Editor können versierte Administratoren die Partitionstabellen der Festplatten direkt und “roh” bearbeiten. 108 L AN line 12/2000 den kann. Diese Software protokolliert jede Dateiänderung in überwachten Verzeichnissen, sodass der Benutzer diese Änderungen mit einigen Mausklicks rückgängig machen kann. Ändert der Benutzer eine Datei mehrfach, kann er später jede Version dieser Datei wiederherstellen, die er zuvor mit der entsprechenden Anwendung gesichert hat. Auch gelöschte Dateien lassen sich zurückholen. Weil Datakeeper Sicherungsdaten auch auf Wechselmedien ablegen kann, eignet sich die Software sogar zu einem gewissen Grad als Backup-Ersatz. Mit Bandlaufwerken kann das Programm allerdings nichts anfangen. TEST Der Test von Drive Image hinterließ insgesamt einen gemischten Eindruck. Einige Funktionen bereiteten keine Probleme, andere arbeiteten nicht auf allen Testrechnern einwandfrei. Die Grundfunktionen beherrschte Drive Image auf allen Systemen ohne Ausfälle. Weder beim Erstellen noch beim Wiederherstellen von Images gab es Schwierigkeiten, und auch die Direktkopie zwischen zwei Festplatten funktionierte einwandfrei. Beim Schreiben von Images auf NTFS-Laufwerken hingegen beschädigte die Software auf einem der drei Testrechner die NTFS-Partition, auf die Drive Image das Image schrieb. Anschließend musste die Partition mit CHKDSK repariert werden – wobei NT/2000 die Image-Datei als defekt erkannte und löschte. Dieses Problems trat auf einer NTFS4- und einer NTFS5-Partition auf, während Drive Image problemlos Images auf zwei andere NTFS4-Partitionen derselben Festplatte schreiben konnte. Probleme gab es auch mit den gebrannten CDs. Während das Brennen reibungslos funktionierte, war die CD in einem der Testrechner nicht korrekt lesbar (die Image-Datei ist nicht sichtbar). Die anderen drei Systeme konnten die Datei aber einwandfrei anzeigen und lesen. Praktischerweise kann der Administrator von der gebrannten CD direkt booten und Drive Image ausführen. Dies klappte im Test nur auf einem von zwei Systemen, deren Hardware von CDs booten kann. Zwar startete die Software dort automatisch, konnte aber die Image-Datei nicht auf der CD finden. Keine Probleme gab es im Test mit dem Drive-Image-File-Editor. Gefallen hat, dass sich Image-Dateien nachträglich in mehrere Teile aufteilen und wieder zusammenfügen lassen. Auch die nachträgliche Änderung der Komprimierung ist nützlich. Allerdings benötigte der Editor bei allen Änderungen neben der ImageDatei so viel freie Festplattenkapazität wie die zu bearbeitende Datei groß ist. Ebenfalls reibungslos funktionierte der Datakeeper, der überraschenderweise die Systemleistung bei alltäglichen Arbeiten nur minimal beeinflusst. Gefallen hat auch das deutschsprachige Handbuch, das alle grundlegenden Schrit- www.lanline.de netzTOOLBOX Mit dem Partitionstabelleneditor können versierte Benutzer bestimmte Probleme “per Hand” reparieren te so erklärt, dass auch Anfänger die Software bedienen können. Weiter hinten liegende Kapitel bieten Informationen über das Anpassen der Boot-Disketten, Datakeeper und wie beispielsweise Image-Da- www.lanline.de teien des Konkurrenzprodukts Norton Ghost in das Format von Drive Image konvertiert werden können. Powerquest führt mit der aktuellen Version 4 von Drive Image mehrere interes- sante Verbesserungen ein, von denen vor allem die Möglichkeiten hervorstechen, Images direkt auf CDs zu brennen und auf NTFS-Laufwerken abzulegen. Auch andere Detailverbesserungen der rund 130 Mark teuren Software sind nützlich, der Datakeeper ist ebenfalls ein interessantes Tool. Die im Test aufgetretenen Probleme muss Powerquest aber unbedingt noch beheben. Auf der Wunschliste für die nächste Version steht vor allem die Möglichkeit, beim Erstellen von Images bestimmte Dateien (etwa die Windows-NT/2000-Auslagerungsdatei) oder sogar ganze Verzeichnisse auszuschließen. Zudem wäre es praktisch, von der Installations-CD zu booten. (Andreas Roeschies/gh) Info: Powerquest Tel.: 089/374092-0 Web: Web: www.powerquest.com/de/ driveimage/index.html L AN line 12/2000 109 netzTOOLBOX PERFORMANCE IM WEB Schnell ist nie schnell genug Die Performance von Websites gehört noch immer zu den kritischen Punkten des Internets und wird zu einem wichtigen Wettbewerbsfaktor Die Keynote Agents messen die Performance von beliebigen Websites im E-Business. Erst mit differenzierten Messmethoden lassen sich die Gründe für eine schwache Performance ermitteln. u gewissen Zeiten wird es im Web richtig hektisch. So liefen die WebServer der Direkt-Banken wegen der Zuteilung von T-Online- und Infineon-Aktien heiß, und die Napster-Server verzeichneten in der heißen Phase des Verfahrens gegen den Musik-Broker einen fünffach höheren Traffic. In solchen Zeiten entscheidet sich aber oft der weitere Geschäftserfolg eines Unternehmens: Wer sich wegen überlasteter Server um seine Glücksaktien gebracht sieht, wird eventuell zur nächsten Bank weiter klicken, und einem Musikanbieter, der nicht erreichbar ist, wird niemand eine Träne nachweinen. Die Performance von Websites gehört daher mehr denn je zu den kritischen Punkten des Internets. Zwar wurden die dafür relevanten Systeme und Infrastrukturen in Z Übersichtlich werden die Latenzzeiten dargestellt 110 L AN line 12/2000 den letzten Jahren massiv ausgebaut, aber sowohl das explosionsartige Wachstum dieses universellen Mediums als auch sein verstärkter Einsatz in Bereichen, für die seine Technologie ursprünglich gar nicht gedacht war – beispielsweise E-Commerce – haben dazu geführt, dass sich die WebNutzer nach wie vor mit Performance-Problemen konfrontiert sehen. Für die Anbieter im Web sind derartige Probleme längst nicht mehr nur eine Frage des Prestiges. Die wenigsten WebNutzer sind bereit, sich mit einer schwachen Web-Performance abzufinden; ist eine Website nicht gleich verfügbar, klickt der Web-Surfer einfach weiter. Gerade im boomenden E-Commerce wird die Web-Performance damit zu einem gewichtigen Wettbewerbsfaktor. Kunden und Interessenten müssen nicht nur durch das Warenangebot und seine Präsentation im Web gewonnen und gehalten werden, sondern zusätzlich noch durch eine hohe Verfügbarkeit der Informationen, also durch Performance. Was jedoch die Ursachen für eine geringe Performance sind, ist für die Anbieter oft nicht feststellbar. Die Ursachen können sowohl in den eigenen Websites bestehen als auch außerhalb des Web-Servers, beispielsweise in den Backbone-Netzen oder den Verbindungspunkten zwischen ihnen. Viele Anbieter kontrollieren die Performance ihrer Website nur intern und klammern dadurch eine Vielzahl möglicher Schwachstellen von vornherein aus. Eine sinnvolle Schwachstellenanalyse lässt sich jedoch nur über einen Blick von außen auf die Website durchführen. Dies ist der Ansatzpunkt der unabhängigen Messung von Web-Performance wie sie beispielsweise Keynote Systems betreibt. Das Unternehmen unterhält auf allen bedeutenden Backbone-Netzen – weltweit an über 50 Standorten – Messeinrichtungen (Agents). Diese Agents – insgesamt über 500 – messen die Performance von beliebigen Websites aus Sicht eines Außenstehenden, sind also nicht durch unternehmensinterne Faktoren, etwa einen schnellen, direkten Zugang zum Web-Server, verfälscht. Die Keynote-Agents erlauben es dem Betreiber einer Website, die gleiche Sichtweise wie ein Endanwender im Web einzunehmen. Die Agents sind geografisch und netztopologisch so verteilt, dass sie auch Probleme aufspüren können, von denen Anbieter unter normalen Umständen nichts erfahren würden. www.lanline.de netzTOOLBOX MESSMETHODEN Die Agents bilden die Der Traceroute-Befehl liefert den Weg über die verschiedenen Router im Internet und gibt die Verzögerungszeiten an Keynote bietet einen Reihe differenzierter Messmethoden, mit denen sich die Web-Performance analysieren lässt. Durch einen Vergleich der Ergebnisse können Fehlerursachen eingegrenzt und Gegenmaßnahmen eingeleitet werden. Die Performance-Messung erfolgt in mehreren Schritten: – Durchführung der Messung (7 mal 24 Stunden), die Daten werden minütlich (Perspective) oder nach Abschluss der Messung (die anderen Agenten) an den Proxy-Server übergeben, – Identifikation des Agenten und Übergabe der Messwerte an die Keynote-Datenbank, – Speicherung der Messwerte für sechs Wochen mit dreifacher Spiegelung für Störfälle, – Abruf der Messwerte aus der Datenbank, per E-Mail täglich oder im 15-Minuten-Takt für Alarmmeldungen, – Anwenderdefinierte Anzeige der Messwerte. Die Agents dienen sowohl geografisch als auch topologisch als Proxy für die Online-Anwender. Daher gibt es in größeren Ballungsgebieten wie New York, Chicago, Los Angeles und San Francisco mehrere Agents; außerdem ist, um die Netzwerke, mit denen die Endanwender angebunden sind, genau zu repräsentieren, die größte Zahl der Agents über Uunet, Sprint und Cable&Wireless mit dem Internet verbunden. In Deutschland werden derzeit in allen wichtigen Backbones und an allen zen- 112 L AN line 12/2000 tralen Knotenpunkten Agents platziert. Sie repräsentieren die wichtigen deutschen Internet-Service-Provider wie Cable&Wireless/ECRC, Deutsche Telekom, DPN, Mediaways, Uunet, Ision und Xlink. Die Messergebnisse werden fast in Echtzeit an die Keynote Datenbank in San Mateo weitergeleitet. Falls die Agents aufgrund von Netzproblemen nicht in der Lage sein sollten, eine Messung weiterzuleiten, so wird diese lokal gespeichert, bis ei- Grundlage der Dienste von Keynote Perspective. Sie laufen auf Windows-NT-Systemen und sind weltweit bei regionalen Netzwerk-Providern – ISP, BackboneProvidern oder Web-Hosting-Unternehmen – platziert. Die Agents messen in regelmäßigen Abständen eine Liste von ZielURLs. Dabei werden zwei Arten von Messungen durchgeführt: Benchmark-Pageoder Full-Page-Messung. Die Benchmark-Page-Messung besteht aus dem Download einer einzelnen Datei, wobei keine der auf der Seite enthaltenen Abbildungen heruntergeladen wird. Die Full-Page-Messung besteht aus dem Download der HTML-Page einschließlich aller integrierten Abbildungen. Da die Benchmark-Page-Messung vom Design der Web-Seiten unabhängig ist, lassen sich durch einen Vergleich beider Messungen eine Reihe von Problemen schon im ersten Schritt eingrenzen. Jede Messung besteht aus einem HTTP-GETRequest aus einer Seite oder einem anderen Objekt auf einem Web-Server. Die Messung beginnt mit Absetzen des GETRequests und endet nach dem He- Messung von URLs Um ein möglichst genaues Bild zu erhalten, werden von Keynote verschiedene URLs gemessen und die normale Performance einer jeden einzelnen bestimmt. Eine Liste der zu messenden URLs umfasst: – eine URL für jeden Server oder jede Server-Farm, – eine URL, gemessen über ihre IP-Adresse anstelle ihres DNS-Namens, – eine URL einer anderen Website auf dem Netz des Backbone-Providers, die geografisch in der Nähe der eigenen liegt – eine oder zwei der Websites von Mitbewerbern, – eine URL einer Testdatei, die nie ihre Größe ändert. ne Verbindung zur Datenbank wieder möglich ist. Bei Benchmark-Pages kann jede festgelegte Datei, einschließlich GIFs, heruntergeladen werden. Normalerweise wird eine HTML-Datei als Zielobjekt verwendet. Verwendet man beide Arten des Downloads, erhält man Informationen, die zur Diagnose von Netzwerk- oder HTMLContent-Problemen herangezogen werden können. runterladen der Seite. Die Agents verfolgen verschiedene Komponenten der Download-Zeit zusätzlich zur RoundTrip-Time. Keynote Perspective erlaubt die genaue Eingrenzung von Problemursachen. Dabei lassen sich fünf Arten unterscheiden: – das Internet, – der Netzwerk Provider, – die Verbindung zum Internet, www.lanline.de netzTOOLBOX – der Web-Server, – der Inhalt der Website. Der globale und einzelne Einfluss der fünf Bereiche wird diagnostiziert, indem ein Download entweder der Standardseite (index.html) oder einer Full-Page durchgeführt wird. Eine Benchmark-Messung erlaubt noch einen Fokus auf die Infrastrukturaspekte (die ersten vier Bereiche) unter Verwendung einer Testdatei mit festgelegter Größe, sodass alle auftretenden Performance-Veränderungen das Ergebnis von Netzwerk- oder Server-Fluktuationen sind. Der erste Schritt bei der Behebung von Performance-Problemen liegt darin, sicherzustellen, dass ein Web-Server und seine Anbindung an das Internet ordnungsgemäß arbeiten. Beide Aspekte unterliegen der Kontrolle des Betreibers und haben einen großen Einfluss auf die Performance. Um nach DNS-Problemen zu suchen, muss die Performance sowohl über den DNS-Namen als auch über die IP-Adresse gemessen werden. Man kann beispielsweise dieselbe URL auf unterschiedliche Weise messen: http://205.216.163.160/index.html http://www.keynote.com/index.html Der einzige Unterschied der Performance-Kurven dieser beiden URLs sollte in der DNS-Lookup-Time liegen. Werden beide URLs auf einer Metrokurve angezeigt, so wird sichergestellt, dass eine ähnliche Anzahl von Datenpunkten für jeden URL in jeder Stadt angegeben wird. Fehlende Datenpunkte weisen dann auf DNS-Fehler hin. Mangelhaft konfigurierte DNS-Server können auch eine Verschlechterung der gesamten Download-Zeit der Startseite einer Website verursachen. Routing-Fehlfunktionen treten auf, wenn Router im Internet keine Entscheidung treffen können, über welche Wege ein Datenpaket gesendet werden soll. Liegt eine Routing-Fehlfunktion vor, so ist die Website für eine bestimmte Zeitdauer nicht zugänglich. Bei der PerformanceMessung der Site führt dies dazu, dass allgemein weniger Datenpunkte vorliegen und von dem Agent, der von der RouterFehlfunktion betroffen ist, gar keine. Es lässt sich überprüfen, ob Router-Fehlfunk- 114 L AN line 12/2000 tionen weiterhin auftreten, indem man von den Agents aus, die weniger Daten liefern, eine Traceroute zu einer Website vornimmt. Keynote bietet Traceroute-Gateways über jeden Agent an, um es zu ermöglichen, die Route zwischen dem Agent und einer Site zu überprüfen. Backbone-Probleme treten auf, wenn eines der vielen Einzelnetze, aus denen sich das Internet zusammensetzt, ein internes Problem hat. In diesen Fällen weisen die Keynote Agents, die an den betroffenen Backbones angebunden sind, eine schlechtere Performance auf. Man kann diese Probleme genauer untersuchen, indem man eine Backbone-Kurve erstellt und dann in Keynotes Online-Agent-Liste überprüft, an welchem Backbone sie jeweils angebunden sind. Verbindungsknoten sind die Datenaustauschpunkte zwischen Netzwerken, oft überlastet und manchmal nicht optimal festgelegt. Entsprechende Verbindungsprobleme schlagen sich in der Performance einer Website nieder, indem eine eingrenzbare Untergruppe von Agents eine schlechte Performance aufweist. Zur genaueren Lokalisierung von Verbindungsproblemen muss eine Traceroute durchgeführt werden. Traceroutes zwischen einer Website und den Agents, die an den schlechtesten funktionierenden Backbones angebunden sind, können zeigen, ob alle Routen einen gemeinsamen Verbindungsknoten aufweisen. Da Routing meist asymmetrisch verläuft, muss eine Traceroute nicht nur zu der vom Agent untersuchten Website, sondern auch in umgekehrter Richtung von dieser zum Agent durchgeführt werden. Es gibt öffentliche und private Verbindungspunkte, die beide überlastet sein können. Dies führt bei allen, die über sie verbunden sind, zu schlechten Antwortzeiten. Traceroutes können auf solche Probleme hinweisen, sowohl durch einen öffentlichen als auch einen privaten Verbindungspunkt. Zeigen verschiedene Standorte schlechte Antwortzeiten und geht eine Traceroute zu jedem dieser Standorte durch denselben Verbindungspunkt, dann ist dieser Verbindungspunkt eine potenzielle Ursache des Problems. Die Basis aller Messungen – Ping und Traceroute Fast alle Systeme, die an das Internet angeschlossen sind, verfügen über die beiden Diagnoseprogramme Ping und Tracert (für Traceroute). Mit Ping (Syntax “ping www.host name.de” oder “ping IP-Adresse”) lässt sich feststellen, ob ein Host “am Leben ist”. Der Traceroute-Befehl liefert den Weg über die verschiedenen Router im Internet und gibt die Verzögerungszeiten an. Auch hier kann sowohl der Domain-Name wie auch die Adresse eingegeben werden. Mit diesem Dienstprogramm sind komplexe Analysen möglich. Einmal wird die Anzahl der Übergänge (Router) angezeigt, die das Datenpaket bis zum Ziel passieren muss. Zu den Übergängen – im Fachjargon Hops genannt – wird die Verzögerungszeit in Millisekunden angegeben. Diese bestimmt sich durch Qualität der Hardware (welcher Durchsatz kann ohne Latenzzeiten verarbeitet werden) und durch die Gesamtbelastung der Geräte. Größere Verzögerungen bei mehreren zusammenhängenden Hops zeigen Problemzonen in einzelnen Teilnetzen an. Zur komfortableren Auswertung lassen sich Traceroutes auch grafisch darstellen. Bekannteste Vertreter sind Neotrace von Neoworx (www.neo worx.com) und Visualroute von Datametrix Systems (www.visualroute.com). ISP-PROBLEME Ein Problem, das oft am einfachsten zu diagnostizieren ist, betrifft den lokalen ISP, bei dem der Keynote Agent lokalisiert ist. Dieses Problem ist eindeutig, weil nur ein Ballungsgebiet oder ein Agent eine schlechte Performance aufweist, während alle anderen Standorte normale Antwortzeiten messen. So ist beispielsweise einer von Keynotes Agents in New York City über Uunet ans Internet angebunden. Wäre dieser Agent derjenige mit einer schlechten Antwortzeit, würde man einen einzelnen Balken mit einem ungewöhnlich hohen Wert im Metrodiagramm erkennen. Diese Art von Problemen beeinflusst die geringste Anzahl von Benutzern, da nur diejenigen davon betroffen sind, die beispielsweise in New York City über Uunet angebunden sind beziehungsweise die über denselben Uunet-ISP ins Internet gehen wie Keynote. (Dr. Rainer Doh/mw) www.lanline.de netzTOOLBOX PRINT QUEUE MANAGER 1.0 IM TEST Komfortable Verwaltung von Druckaufträgen Nur wenige Optionen kennt Windows NT für Druckerfreigaben: Administratoren können Drucker freigeben, ihre Priorität festlegen und einige Aspekte bezüglich der Warteschlange einstellen. Hier setzt die Software Print Queue Manager an, die Aufträge zwischen Druckern verschieben, eine automatische und variable Lastverteilung bieten und Drucker für die Verwaltung gruppieren kann. ie Oberfläche der Software ähnelt dem Windows-Explorer. In der linken Fensterhälfte stehen die Drucker, während der rechte Teil des Fensters die Druckaufträge anzeigt, die sich in der Warteschlange des ausgewählten Druckers befinden. Im Gegensatz zum Explorer stellt D der Administrator, welche Drucker in welche Ordner kommen. Dabei kann jeder Drucker durchaus Mitglied mehrerer logischer Ordner sein. Dadurch lassen sich beispielsweise sowohl die organisatorische als auch die geografische Struktur des Unternehmens parallel abbilden. Komple- nierende (oder nicht eingeschaltete) Drucker rot dar. Auch für Drucker und Ordner mit besonders vielen Druckaufträgen sind bestimmte Farben wählbar. Zudem kann der Administrator die Sortierreihenfolge innerhalb der Ordner bestimmen, beispielsweise nach der Anzahl der Jobs in den jeweiligen Warteschlangen, dem Druckerzustand oder dem Druckernamen. Klickt der Administrator mit der Maus auf einen Drucker oder Ordner, erscheinen im rechten Teilfenster alle Druckaufträge in der Warteschlange des Druckers (beziehungsweise in den Warteschlangen aller Drucker des ausgewählten Ordners). Auch für dieses Teilfenster lässt sich die Sortierung angeben. Mit diesen Optionen hat der Administrator ständig den Zustand aller wichtigen Drucker im Auge – ohne herumklicken zu müssen. Neben der benutzerdefinierten Darstellung mit den selbst erstellten Ordnern kann das linke Teilfenster die Drucker netzwerkorientiert darstellen. Die Struktur ähnelt dem Auswahlfenster beim Verbinden zu einem Netzwerkdrucker in Windows NT, ist aber übersichtlicher. Wie in der Netzwerkumgebung lassen sich einzelne Druck-Server oder ganze Domänen aufund zuklappen. Schließlich kann der Administrator die Liste der Drucker ganz wegschalten, um mehr Platz für die Darstellung der Liste mit den Druckaufträgen zu erhalten. AUTOMATED-PRINTER-MANAGEMENT Die linke Fensterhälfte des Admin-Tools zeigt alle Drucker in einer übersichtlichen Baumstruktur an, während der rechte Teil alle Jobs des gewählten Ordners oder Druckers anzeigt der Print Queue Manager keine tatsächlich existierende Struktur dar, sodass der Administrator die Ordner nach eigenen Maßstäben erstellen kann. Beispielsweise lassen sich Abteilungen (Einkauf, Verkauf, Buchhaltung usw.), Gebäude oder NT-Domänen als Ordner anlegen. Standardmäßig erstellt Print Queue Manager einen Ordner “local Printers“ mit allen lokal installierten Druckern. In der zweiten Phase bestimmt www.lanline.de xe Strukturen lassen sich allerdings nicht widerspiegeln, weil die Software nur eine Verschachtelungsebene beherrscht. Im Vergleich zur flachen Struktur der Windows-NT-Druckerverwaltung stellt diese Darstellung des Programms dennoch eine deutliche Verbesserung dar. Für eine zusätzliche Übersicht sorgen mehrere Darstellungsoptionen. So stellt das Fenster standardmäßig nicht funktio- So wie sich im Windows-Explorer Dateien von einem Verzeichnis in ein anderes verschieben oder kopieren lassen, kann der Administrator mit dem PrintQueue-Manager Druckaufträge von einem Drucker an einen anderen verschieben oder kopieren – sofern die Drucker denselben Treiber verwenden. Zudem erlaubt es die Oberfläche, Druckaufträge an mehrere Drucker gleichzeitig zu kopieren (Print Broadcasting). Diese und weitere Aufgaben lassen sich über das so genannte Automated-Printer-Management (APM) automatisieren. Dabei legt der Administrator eine Aktion fest, welche die Software grundsätzlich oder unter bestimmten Bedingungen für neu eingehen- L AN line 12/2000 117 netzTOOLBOX de Jobs eines Druckers ausführt. Das bereits erwähnte Print Broadcasting kann besonders dann nützlich sein, wenn bestimmte Unternehmensmeldungen in allen Abteilungen ausgedruckt werden sollen oder beispielsweise gedruckte Briefe parallel auf einem zweiten Drucker ausgegeben werden sollen. Als weiteren Einsatzzweck nennt das Handbuch Dokumente, die in großen Mengen gedruckt werden sollen; durch die parallele Verwendung mehrerer Drucker wird die Ausgabe erheblich beschleunigt. Andere Funktionen des APM sind das Verschieben oder Kopieren eingehender Druckaufträge an ein anderes Ausgabegerät. Auf Wunsch lassen sich auch neue Aufträge anhalten oder löschen. Zu möglichen Bedingungen für die Aktion zählen Druckerfehler, die gegenwärtige Anzahl der Jobs in der Warteschlange und die Größe der Summe aller Druckaufträge in Bytes. So besteht die Möglichkeit, dass der Administrator beispielsweise alle neuen Druckaufträge an ein zweites Ausgabegerät verschiebt, wenn bereits zehn Jobs in der Warteschlange sind oder der Drucker einen Fehler (etwa Papierstau) meldet. Außerdem kann der Administrator beispielsweise beim zweiten Drucker einstellen, dass Dokumente auf einen dritten Drucker verschoben werden sollen, wenn der zweite Drucker bereits mehr als fünf Aufträge zu bearbeiten hat. Auf diese Weise lässt sich eine Lastverteilung einrichten, die deutlich effektiver als die Drucker-Pools von NT ist. Allerdings funktioniert dies nur, wenn alle betroffenen Drucker denselben Treiber verwenden. Praktisch: Beim automatischen Verschieben von Druckaufträgen arbeitet der Print Queue Manager nicht still vor sich hin, sondern benachrichtigt den Benutzer, an welchen Drucker sein Job umgeleitet wurde – damit der Anwender auch weiß, an welchem Ausgabegerät er seinen Ausdruck findet. Dabei sendet die Software eine benutzerdefinierte Nachricht an den Benutzer (Windows 3.x/9x/ME muss Winpopup ausführen, um die eingehende Nachricht anzeigen zu können). Zudem kann die Software 118 L AN line 12/2000 auf Wunsch den Administrator informieren und zwar ebenfalls per Textnachricht und/oder per SNMP (Simple Network Management Protocol). THEORIE UND PRAXIS Im Test kann der Print Queue Manager zunächst nicht überzeugen. Problematisch ist die Installation der kostenlos über das Internet erhältlichen Demo-Version (auf 30 Tage beschränkt). Das selbstentpackende Archiv legt ein temporäres Verzeichnis an, aus dem eigentlich die Software installiert werden sollte. Allerdings verweisen NT einen Spool-Fehler. Ebenfalls nicht erfolgreich ist das APM-gesteuerte Verschieben/Kopieren von Jobs. Einzig die übersichtliche Darstellung der Druckerzustände klappt reibungslos. Abhilfe bringt erst die Installation des Print Queue Managers unter der amerikanischen Version von Windows NT 4.0. Dann arbeiten fast alle Funktionen einwandfrei, lediglich das Kopieren von Druckaufträgen an andere Drucker über das (Kontext)-Menü ruft eine Fehlermeldung hervor; per Drag-and-Drop gibt es hingegen keine Schwierigkeiten, Druckaufträge an andere Drucker zu kopieren oder zu verschieben. Nicht ganz fehlerfrei sind die frei definierbaren Nachrichten, welche die Software Benutzern sendet, wenn sie einen Druckauftrag über das Automated Printer Management verschiebt, kopiert, anhält oder löscht: Lange Nachrichten werden abgeschnitten, bei zu kurzen Nachrichten sieht der Benutzer dieselbe Meldung zusätzlich auf englisch. FAZIT Intrust Software bietet mit dem Auch die netzwerkorientierte Ansicht der Drucker beherrscht das Programm die Verknüpfungen nicht auf das beim Setup eingerichtete Programmverzeichnis, sondern auf den temporären Ordner. Einen Ausweg bietet das manuelle Entpacken des Archivs, denn dabei entsteht ein Verzeichnis, aus dem sich die Software einwandfrei einrichten lässt. Damit sind aber nicht alle Hürden bewältigt. In der Verwaltungs-Software treten diverse Fehler auf. So lassen sich Aufträge nicht an andere Drucker verschieben oder kopieren (es erscheint eine wenig hilfreiche Fehlermeldung) und beim Ausblenden der Ordnerstruktur oder beim Aufrufen des APM-Assistenten stürzt die Oberfläche gelegentlich ab. Auch das automatische Anhalten oder Löschen von neuen Druckaufträgen klappt nicht; hier meldet Print Queue Manager 1.0 ein leistungsfähiges Werkzeug zur Druckerverwaltung an. Praktisch ist die übersichtliche und benutzerdefinierte Sicht auf alle Drucker im Netzwerk, die über Windows-NTServer angesprochen werden; so behält der Administrator besonders in großen Netzwerken die Übersicht. Die im Test aufgetretenen Mängel sind kein echtes Manko; ein Problem ist es hingegen, dass die Software nur mit der englischen Version von Windows NT 4.0 funktioniert. Der Print-Queue-Manager-Service kostet für 50 bis 99 Lizenzen jeweils 720 Dollar. Die Client-Lizenzen schlagen in der gleichen Staffelung mit jeweils 180 Dollar zu Buche. Eine 30-Tage-Version lässt sich kostenlos aus dem Internet herunterladen. (Andreas Roeschies/mw) Info: Hersteller: Intrust Software Vertrieb: Software Shelf International Tel.: 001/727-445-1920 Web: www.printqueuemanager.com E-Mail: info@softwareshelf.com www.lanline.de netzTOOLBOX IM TEST: OPALIS RENDEZVOUS VERSION 1.6 Automatischer FTP-Transfer mit Windows NT Automatischer FileTransfer in LAN/WAN Obwohl das Kopieren von Dateien über lokale Netzwerke und DFÜ-Verbindungen zu den grundlegenden Funktionen von Windows NT gehört, lassen sich entsprechende Aufgaben nur schlecht automatisieren. An dieser Stelle setzt Rendezvous von Opalis an. Die Software automatisiert das Kopieren von Dateien, erlaubt die Definition von flexiblen Mit einer einfachen Textdatei sowie einer Option des FTP-Clients von Windows lassen sich Datenübertragungen automatisieren Bedingungen für den Dateitransfer und beherrscht diverse Übertragungsprotokolle. endezvous von Opalis hat sich zur Aufgabe gemacht, Dateien über LAN, WAN und Internet zu verteilen. Die Software läuft unter Windows 95/98, NT und 2000 und verfügt über Funktionen zur Replikation, Übertragung, Archivierung und Spiegelung von Dateien und Datenbankeinträgen. Zahlreiche Konfigurationsmöglichkeiten sollen dabei dem Administrator eine flexible Automatisierung dieser Vorgänge ermöglichen. Die wichtigsten Verfahren, um Dateien zwischen verschiedenen Rechnern in Windows-Netzwerken zu kopieren, sind einfache NT-Dateikopien. Für den FileTransfer über das Internet spielt hingegen FTP eine dominante Rolle. Beide Verfah- R 120 L AN line 12/2000 ren unterstützt Rendezvous, für den Datenaustausch zwischen Datenbanken setzt die Software auf ODBC. Der Vorteil beim Einsatz dieser Protokolle ist, dass der Administrator die Software nur auf einem der an der Übertragung beteiligten Rechner installieren muss. Dank der Verwendung offener Standards ist Rendezvous zumindest auf einer Seite nicht auf Windows NT beschränkt. Denn der Übertragungsmodus “Dateikopien” funktioniert mit jedem SMB-Server wie beispielsweise OS/2, Samba Unix/Linux/Netware und dem IBM-LAN-Manager. Bei FTP-Übertragungen muss das entfernte System einen FTP-Server ausführen, der jedoch für praktisch jedes Betriebssystem erhältlich Windows NT unterstützt von Haus aus die automatische Datenübertragung zu FTPServern. Der Administrator schreibt hierbei einfach alle Befehle, die er normalerweise an der FTP-Kommandozeile eingibt, in eine Datei. Anschließend ruft er den in NT enthaltenen FTP-Client mit der Option s:Dateiname auf (Abbildung). Auch das Anwählen einer DFÜ-Verbindung über die Kommandozeile ist möglich. Hierzu dient der Befehl RASDIAL, der als Parameter neben dem Namen des DFÜ-Telefonbucheintrags auch einen Benutzernamen samt Kennwort und Telefonnummer akzeptiert. Der Befehl RASDIAL /? gibt eine kurze Hilfe zu dessen Verwendung aus. Die Kombination von RASDIAL und der FTP-Automatisierungen in Batch-Dateien erlaubt – zusammen mit dem Windows-Scheduler – beispielsweise regelmäßige Dateiübertragungen ins (oder aus dem) Internet. www.lanline.de netzTOOLBOX ist. Befindet sich Rendezvous auf beiden Systemen, kann das Programm zusätzlich ein eigenes proprietäres Protokoll (RDV) verwenden. FUNKTIONSWEISE Die Konfiguration von Rendezvous basiert auf so genannten Flows. Dabei handelt es sich um Datenströme zwischen zwei oder mehr Computern. Jedem Flow kann der Administrator zahlreiche Optionen zuordnen. Zu den wichtigsten Einstellungen gehören eine Übertragungsrichtung, die Bedingungen für den Transfer, die Art der zu kopierenden Daten, das zu verwendende Protokoll und wie der Zielcomputer zu erreichen ist. Auf der grafischen Oberfläche der Software findet der Benutzer hierzu die Registerkarten “When”, “What” und “Where”. Die Bedingung (“When”), die einen Transfer auslöst, kennt zahlreiche Varianten: Im einfachsten Falle fordert der Benutzer die Übertragung manuell an. Natürlich beherrscht die Software auch die zeitgesteuerte Kopie, also beispielsweise alle 25 Minuten oder täglich zu einer bestimmten Uhrzeit. Weiterhin kann Rendezvous die Übertragung immer dann starten, wenn eine Datei im Quellverzeichnis geändert wurde oder die Gesamtgröße des Verzeichnisses eine bestimmte Grenze überschreitet. Diese Optionen sind jedoch nur wählbar, wenn es sich um einen Flow mit ausgehender Übertragungsrichtung handelt. Um unnötig viele Übertragungen (die bei RAS-Verbindungen bares Geld kosten) zu vermeiden, lässt sich außerdem der Zeitraum angeben, in dem der Flow aktiv sein soll. Hier kann der Administrator sowohl einen Zeitraum (beispielsweise 8 bis 16 Uhr) als auch einzelne Wochentage angeben. Die Konfiguration der Eingangs- und Ausgangsverzeichnisse ist prinzipiell einfach, kann aber dennoch verwirren. Denn bei Flows mit ausgehender Übertragungsrichtung gibt der Administrator auf der Registerkarte “What” das Quell- und auf der Registerkarte “Where” das Zielverzeichnis an. Bei Flows mit eingehender Übertragungsrichtung ist der Inhalt der beiden Registerkarten vertauscht. www.lanline.de Das Protokoll liefert Informationen über ausgeführte Aufträge Zur Definition eines Flow gibt der Systemverwalter auf dem Rendezvous-Rechner zunächst einen beliebigen lokalen Ordner an. Bei ausgehenden Flows muss er zusätzlich festlegen, ob Unterverzeichnisse mit zu übertragen sind. Zudem kann er Dateifilter bestimmen, um beispielsweise ausschließlich *.txt, *.doc und *.xls-Dateien zu übertragen. Mehr als ein Verzeichnis lässt sich nicht angeben, so- dass mehrere Flows erforderlich sind, falls mehr als ein Verzeichnis übertragen werden soll. Bei Dateikopien mit ausgehender Richtung akzeptiert Rendezvous als Ziel nur direkt einen Freigabenamen – der Administrator kann als Ziel nicht ein Verzeichnis innerhalb einer Freigabe angeben. Ähnlich wie das Kopieren von Dateien funktioniert der Zugriff auf FTP-Server. Auch hier kann Rendezvous sowohl Dateien schreiben als auch abholen – je nach Übertragungsrichtung des Flows. Sowohl für Dateikopien als auch für FTP-Übertragungen muss der Systemverwalter dabei angeben, ob eine direkte Verbindung zum Zielcomputer besteht oder ob diese über das DFÜ-Netzwerk hergestellt werden soll. In diesem Fall muss der Administrator zusätzlich den Namen der DFÜ-Verbindung, den Benutzernamen sowie Anmeldekennwort und -domäne eintragen. System – sofern dort ebenfalls Rendezvous installiert ist – ein beliebiger Flow auslösen. Zudem kann der Dienst einen Task in der ebenfalls von Opalis erhältlichen Automatisierungssoftware Robot (siehe Test in LANline 3/99, Seite 46) aufrufen. Alternativ versendet Rendezvous einen Bericht über die Ausführung des OPTIONEN Wenn ein Transfer erfolgreich verläuft, erfolglos ist oder einfach nichts zu tun hat (weil keine Dateien zu kopieren sind), kann das System bestimmte Aktionen anstoßen. So lässt sich auf dem lokalen Server oder auf dem Remote- L AN line 12/2000 121 netzTOOLBOX Flows per SMTP als E-Mail. Leider ist für jedes Ergebnis (erfolgreicher Transfer, fehlgeschlagene Übertragung und nicht erfolgte Kopie) jeweils nur eine Aktion auswählbar. Als weitere Option kann der Administrator festlegen, wie Rendezvous verfahren soll, wenn Zieldateien bereits existieren: versionen übertragen hat. Schließlich lässt sich bei Dateikopien ein Benutzername und ein Kennwort für die Anmeldung am fremden Rechner angeben. Standardmäßig verwendet Opalis Rendezvous das Konto, unter dem der Dienst ausgeführt wird. Für die FTP-Übertragung kennt die Software zusätzliche Optionen, die zu bestimmten Zeitpunkten benutzerdefinierte Befehle auf dem FTP-Server ausführen. So lassen sich beispielsweise auf bestimmten Servern die Dateizugriffsmasken verändern. Dazu kommen einstellbare Regeln für Dateinamenkonvertierungen und die Wahl des Übertragungsmodus (Binär/ASCII). Bei der Übertragung mit dem proprietären RDV-Protokoll können die Daten auf Wunsch verschlüsselt sowie komprimiert werden. Etwas anders sieht es bei Flows mit Übersichtlich zeigt die Benutzeroberfläche alle konfigurierten DatenODBC-Transfer aus. übertragungen mit ihren wichtigsten Optionen an. Die Optionen lassen Hier muss der Admisich über mehrere Registerkarten einstellen. nistrator die Namen beider ODBC-QuelWahlweise erhält die Quelldatei auf dem len, die Benutzernamen sowie die zugehöZielsystem einen neuen Namen, über- rigen Kennwörter sowie die Namen der schreibt die vorhandene Datei oder die Da- Tabellen und Spalten beider Datenbanken tei wird gar nicht erst kopiert. Auch für das angeben. Fortgeschrittene Optionen Dateidatum gibt es mehrere Möglichkei- schränken die übertragenen Zeilen ein und ten. So kann der Rendezvous-Dienst das führen vor der Übertragung ODBC-Abfraoriginale Datum beibehalten oder den Zeit- gen durch. Neben den zahlreichen Einstellungen punkt des Transfers verwenden. Im Quellsystem gelöschte Dateien können bei Be- der einzelnen Flows besitzt die Softdarf auf dem Zielrechner ebenfalls ge- ware auch mehrere globale Optionen. löscht werden, statt des Kopierens können Sie betreffen unter anderem die Aufbedie Quelldateien zum Ziel verschoben wer- wahrungsdauer von Protokolldateien, den. Zudem ist der Dienst in der Lage, ei- wo diese abgelegt werden sollen, an ne Kopie aller übertragenen Dateien in ei- welche E-Mail-Adresse Warnungen zu nem speziellen Archivordner anzulegen. senden sind und ob der Dienst täglich Dadurch kann der Administrator jederzeit Berichte drucken und/oder per E-Mail sehen, wann die Software welche Datei- versenden soll. RDV-Optionen legen 122 L AN line 12/2000 fest, ob und wie eingehende Verbindungen mit dem eigenen Protokoll ablaufen sollen. TEST Im Test traten keine störenden Fehler auf. Lediglich bei der Übertragung über das FTP-Protokoll kopierte Rendezvous entgegen der Konfiguration auch leere Verzeichnisse auf das Zielsystem. Ansonsten überträgt die Software reibungslos Dateien über Dateikopien, FTPServer sowie mit dem eigenen Protokoll, welches als einziges Dateien verschlüsseln und komprimieren kann. Auch das gute Handbuch kann überzeugen, selbst wenn es ein wenig dünn geraten ist. An einigen Stellen wären zusätzliche Informationen nützlich. Verwirrend kann sein, dass der Inhalt und die Art der Registerkarten je nach den gewählten Optionen variiert. Zwar folgt dieses Verfahren einer strengen und letztendlich auch nachvollziehbaren Logik. Aber sie senkt auch den Wiedererkennungswert der Registerkarten und erschwert Administratoren möglicherweise unnötig den Einstieg in die Konfiguration. FAZIT Opalis bietet mit Rendezvous eine flexible Lösung, die fast allen üblichen Anforderungen für automatisierte Dateiübertragungen gerecht wird. Besonders Administratoren, die regelmäßig bestimmte Dateien oder Verzeichnisse zwischen mehreren Rechnern übertragen müssen, werden die Software zu schätzen wissen. Für rund 1380 Mark ist das Programm in Deutschland bei B.T. Trading erhältlich. Wer nur ein oder zwei Verbindungen benötigt, kann alternativ zu Rendezvous Batch-Dateien per Hand erstellen (siehe Kasten), die allerdings weniger flexibel sind und einiges an Handarbeit erfordern. (Andreas Roeschies/gh) Info: Opalis Tel.: 0031 79/3462910 Web: www.opalis.com E-Mail: info@opalis.com B.T. Trading Tel.: 01804/848613 Web:www.bt-trading.com www.lanline.de netzTOOLBOX & Tipps Tricks In der Rubrik Tipps & Tricks veröffentlicht LANline regelmäßig interessante Fragen und Antworten im Umfeld der wichtigsten Betriebssysteme und Kommunikationslösungen. Neue Treiber und Patches inklusive Bezugsquellen findet der Anwender hier ebenso wie pfiffige Tipps und Tricks. NOVELL-FTP-SERVER-PROBLEME Von einer Windows-NT-Station aus sollen nachts mit einem beliebigen FTP-Client Dateien automatisiert auf einen anderen Server kopiert werden. Wenn auf dem Ziel die Datei schon existiert, soll sie nicht überschrieben, sondern die zu kopierende an die bestehende angehängt werden. Mit dem Befehl APPEND war das bisher beispielsweise mit Suse-Linux möglich, auf einem Novell-Netware-5.1 FTP-Server funktioniert das nicht. Wenn die Datei auf dem Ziel noch nicht da ist, passiert gar nichts, sie wird auch nicht angelegt. Gibt es stattdessen ein anderes Kommando? Installieren Sie mindestens Service-Pack 1 auf den Netware5.1-Server. Dieses Service-Pack enthält ein Update des NWFT PD.NLM und behebt das Problem. (Computer 2000 Deutschland GmbH/mw) Application, treten keine Probleme auf. Wird aus einem Subnet über einen Router zugegriffen, klappt dies nicht, da der Server nicht erreichbar ist. Fehlermeldung: “List of Server not currently available.” Auf dem Router muss der Port 1494 für TCP-ICA sowie UDP-ICA freigegeben werden. (Computer 2000 Deutschland GmbH/mw) REGISTRY-EINTRAG FÜR NUMLOCK UNTER NT 4.0 ÄNDERN Die Numlock-Taste soll bei der Standardinstallation aktiviert sein. Wie lautet der entsprechende Registry-Eintrag? Um die Numlock-Funktion einzuschalten, bevor sich ein Anwender einloggt, müssen Sie folgende Schrite durchführen: 1. Sie starten den Registry Editor (Regedt32.exe). 2. Dann wechseln Sie zu HKEY_USERS\Default\ControlPanel\Keyboard. 3. Ändern Sie den Wert für InitialKeyboardIndicators von 0 nach 2. (Computer 2000 Deutschland GmbH/mw) DEFEKTES NT-DRUCKERSUBSYSTEM Bei der Installation eines Druckers (lokal oder auch im Netz) unter Windows NT 4.0 mit Service-Pack 5 mit Admin-Rechten erscheint als letzte Meldung folgendes: Assistent für die Druckerinstallation: “Der Vorgang konnte nicht abgeschlossen werden. Die Druckverarbeitung ist unbekannt.” VERTRAUENSSTELLUNG UNTER WINDOWS NT 4.0 Im Einsatz ist Windows NT Server 4.0 mit Service-Pack 5 in Englisch. Folgendes Problem mit der Vertrauensstellung tritt auf: Sie funktioniert, wenn ich am primärem Domänen-Controller (PDC) in einer der lokalen Gruppen die globalen Gruppen der anderen Domäne einfüge. Wenn dies am Backup-Domänen-Controller durchgeführt werden, funktioniert es nicht, und die folgende Fehlermeldung erscheint: “Unable to browse the selected domain, because of the following error: the list of server for this workgroup is currently not available”. Der BDC ist ein Terminal-Server in ”Englisch“. Im Netz befindet sich noch ein anderes Subnet, das an demselben Switch wie der PDC hängt. Wenn aus dem Subnet auf den PDC zugegriffen werden soll und dann auf die Published 124 L AN line 12/2000 Es liegt in der Regel ein defektes Druckersubsystem vor. Sie sollten eine Reparatur (RDISK) oder Neuinstallation durchführen. In diesem Fall befanden sich im %systemroot%\system32\ spool\printers-Verzeichnis korrupte Druckjobs. Nach dem Löschen der Dateien (bei deaktiviertem Spooler-Dienst) war das Problem behoben. (Computer 2000 Deutschland GmbH/mw) NETWARE-NDPS-BROKER STARTET NICHT In unserem Netware-5.0-Netz (mit Service-Pack 5, Single-Server-Umgebung) startet der NDPS-Broker nicht mehr, seitdem IPX vom Server entfernt wurde. Fehler: “Broker-2.007: The broker received error -5 while logging onto the network. Access to the network was denied. Verify that the broker object name and password are correct and try the task again.” www.lanline.de netzTOOLBOX & Tipps Tricks Von weltweiten Niederlassungen.... zum globalen Netz Zunächst sollten Sie in die Datei HOSTS den Server-Namen mit der IP-Adresse eintragen. (Dabei hatte sich herausgestellt, dass der Server umbenannt wurde.) In der HOSTS-Datei wurde der neue Server-Name eingetragen, und der Broker ließ sich wieder laden. Das Drucken funktionierte auch wieder problemlos. (Computer 2000 Deutschland GmbH/mw) UNSERE SERVICELEISTUNGEN: Wir liefern Ihnen ein betriebsbereites Komplettpaket zur Realisierung Ihres VPN aus einer Hand. Durch die Webasto – Gruppe sind wir in 25 Ländern vertreten. Dabei können Sie sich aus unserer Dienstleistungspalette ein auf Ihre Bedürfnisse individuell abgestimmtes Paket schnüren lassen. • • • • • • • Consulting und Projektierung von individuellen VPN Lösungen Implementierung Ihres VPN Systems Schulung Ihrer IT Administratoren Outsourcing der Wartung in Voll- und Teilzeitmodell Vertrieb von VPN Hard- und Software (auch Finanzierung & Leasing) Zeitlich begrenzte Bereitstellung von VPN Lösungen weitere Serviceleistungen auf Anfrage Wir zeigen´s Ihnen: Überzeugen Sie sich unverbindlich aus erster Hand von der Qualität unserer Dienstleistung. Vereinbaren Sie einen Termin und besuchen Sie uns in unserer Stockdorfer Unternehmenszentrale. Lassen Sie sich VPN live in unserer Produktivumgebung vorführen. Webasto Informationssysteme GmbH Kraillinger Strasse 5 – D-82131 Stockdorf Telefon: +49 (0) 89-8 57 94 – 491 Fax; +49 (0) 89 – 857 94 – 313 Internet: www.webasto-it.de E-Mail. win-info@webasto.de 126 L AN line 12/2000 DAVID-ARCHIVÜBERNAHME AUF ANDEREN SERVER Wir nutzen zwei Netware-4.11-Server in einer NDS. David soll nun “umziehen”, also nicht mehr auf dem bisherigen der beiden Server laufen, sondern auf dem zweiten. Wie gelingt am einfachsten die Archivübernahme, sodass die Anwender wieder auf ihre alten Nachrichten Zugriff haben? Da beide Server ja in einer gemeinsamen NDS stehen, sollte die User-Archivstruktur gleich bleiben, da die User ja dieselben NDS-Objekte sind wie zuvor. Wenn David für einen User ein Archiv anlegt, verwendet sie Software die Bindery-ID des Users, und dies unabhängig davon, ob es sich um David 5.2 oder um David 6 handelt. Dies bedeutet aber Folgendes: Die Bindery-ID ist ausschließlich Server-bezogen, unterscheidet sich also von Server zu Server, auch wenn alle Server in einer NDS hängen. Dies ist leicht auszutesten, indem Sie sich auf mehreren Servern in einer NDS als Bindery-User anmelden (eventuell sollten Sie hierzu einen neuen Test-User in der NDS generieren), also etwa in der DOS-Box Folgendes eingeben: “LOGIN SERVER_1/TESTUSER /B” beziehungsweise “LOGIN SERVER_2/TESTUSER /B” Unter SYS:MAIL wird daraufhin für diesen User ein Verzeichnis mit seiner Bindery-ID angelegt, und dieses ist von Server zu Server unterschiedlich. Legt man diesen User nun noch auf dem David-Server unter David an, so erhält dieser unter Vol:DAVID\ARCHIVE\USER ein Verzeichnis mit der Bindery-ID, die der im Mail-Verzeichnis auf diesem Server entspricht. Ein David-User auf einem anderen Server würde also einen anderen Archivpfad erhalten. Deshalb gestaltet sich die Archivübernahme nicht so einfach. Anmerkung: Bei sehr vielen NDS-Usern kann es durchaus vorkommen, dass ein User eine Bindery-ID eines anderen Users auf einem anderen Server erhält, sodass dieser User bei einer einfachen Datenübernahme es eventuell dennoch schafft, auf Archivdateien zuzugreifen, allerdings nicht auf seine eigenen. Das nächste Problem sind die Dateien ARCHIVE.DIR und ARCHVIE.DAT, die man in jedem Archiv findet: www.lanline.de netzTOOLBOX In den Dateien ARCHIVE.DIR sind alle Directories innerhalb eines Archivs hinterlegt, und zwar mit Server-Namen und Pfad (also zum Beispiel unterhalb eines User-Archivs die Verzeichnisse IN und OUT etc.) In den Dateien ARCHIVE.DAT wiederum werden nun die einzelnen Nachrichtendateien mitprotokolliert, wiederum mit Server-Namen und Pfad. Ein Grund, warum Nachrichten in einem Archiv nicht erscheinen, wenn die Nachrichtendateien einfach in das entsprechende Archiv per Explorer kopiert werden, besteht darin, dass diese Nachrichten nicht in die ARCHIVE.DAT eingetragen werden. Die ARCHIVE.DAT durchsucht nicht das Verzeichnis daraufhin, ob neue Dateien vorliegen; die Einträge in die ARCHIVE.DAT geschehen also nicht von dieser Datei aus, sondern von den anderen Mechanismen: Eingerichtete Verteilung, Verschieben/Kopieren der Nachrichten über das Front-end, Ein- und Ausgang der Nachrichten über den Service Layer etc. Alle diese Gründe lassen nur mehr zwei Möglichkeiten der Archivübernahme zu. Beiden gemeinsam ist, dass auf dem neuen Server ebenfalls schon David installiert sein muss; dies entweder gleich als Update auf David 6 oder mit derselben Version. 1. Nachdem Sie in den Archiveigenschaften die Archivpfade der einzelnen User aufgeschrieben haben, können Sie die Nachrichten aus dem alten User-Archiv in das neue Archiv kopieren. Dies geht nicht im Front-end, da hier nur der eine Archivbaum zu sehen ist. Die Schwierigkeit bei dieser Methode ist die Anpassung der ARCHIVE.DIRs und ARCHIVE.DATs: Zum einen müssen über ARCUTIL.EXE alle diese Dateien durchsucht werden und mit der Find-and-ReplaceOption des ARCUTILs der alte Server-Name durch den neuen ersetzt werden. Danach müssten Sie die Pfade ersetzen, also jedesmal eine alte User-ID durch die neue ersetzen lassen. Abschließend müsste jede ARCHIVE.DAT neu kreiert werden, damit die schon in den Archiven liegenden Nachrichtendateien auch Aufnahme in die ARCHIVE.DAT finden, sodass dann die User wieder Zugriff auf die Nachrichten erhalten. Sinnvoller ist es, die Datenübernahme auf alle Fälle mit der zweiten Methode durchführen, dem MKINST: 2. Führen Sie im Zuge der Datenübernahme auch gleich ein Update auf David 6 durch, sollten Sie auf alle Fälle nicht mit dem alten MKINST.EXE arbeiten, sondern mit dem bei David 6 mitgelieferten MKINST32.EXE, da dies stabiler läuft. Wenn Sie eine David-6-CD zur Hand haben, können Sie natürlich auch bei einem David 5.2 nach 5.2 “Umzug” damit arbeiten. Das einfachste ist natürlich nach wie vor, man macht einen klaren Schnitt, druckt auf dem alten Server eventuell noch benötigte Nachrichten aus und installiert David auf dem neuen Server einfach neu, wobei die User dann nur mehr ihre neuen Nachrichten im Zugriff haben. (Computer 2000 Deutschland GmbH/mw) www.lanline.de L AN line 12/2000 127 netzLÖSUNGEN SERIE: NETZWERKDIENSTLEISTER (TEIL 2) Infrastrukturen aus einer Hand Vor allem bei kleinen Netzen kommen Netzwerkerweiterungen oder Modernisierungen komplett aus einer Hand. Hier rechnet es sich nicht, dass ein Planer eine Netzerweiterung plant und dafür über eine Ausschreibung ein Systemhaus sowie ein Installationsunternehmen beauftragt. So konzipiert und realisiert der Installateur oder ein Systemhaus allein die Erweiterung. Sie können sich zum Beispiel von ihrem Distributor für die Komponentenauswahl und Angebotserstellung technisch unterstützen lassen und dort aus einer Vielzahl von Produkten wählen. Es gibt jedoch Systemhäuser, die einen vollkommen anderen Weg gehen, nicht auf einen Großhändler zurückgreifen, sondern nur mit sehr ausgesuchten Komponenten und Techniken arbeiten und sogar eigene Produkte für ihre Lösungen entwickeln. as Gros der Installateure und Systemhäuser verfolgt einen anderen Ansatz. Sie holen sich bei komplexen Fragestellungen technische Unterstützung zum Beispiel von ihrem Großhändler. Denn immer mehr Elektrogroßhändler besitzen mittlerweile eine Netzwerkabteilung für Installateure aus der Datentechnik. Da dieser Bereich sehr bera- D tungsintensiv ist und viel Fachwissen erfordert, können die Distributoren dafür nicht einfach Fachverkäufer aus der Leuchtenabteilung einsetzen. Deshalb haben zum Beispiel die beiden Elektrogroßhändler Otra und Rexel spezielle Fachbereiche oder gar Tochterunternehmen gegründet, die mit entsprechend ausgebildetem Personal ausgestattet sind. Der Hersteller Draka Multimedia Cable (ehemals NK Networks) bietet zum Beispiel bei Otra Nord-Ost Verkabelungsseminare an 128 L AN line 12/2000 OTRA Bei Otra gibt es den Bereich Datennetzwerktechnik (DNT) bereits seit 1989. Und ähnlich wie sich bei den Elektroinstallateuren zunehmend Spezialisten für die Datentechnik herausgebildet haben, ist hier die DNT-Abteilung gewachsen. Der Großhändler begann seine Dienstleistungen für diesen Bereich mit einem Schulungskonzept für die Koaxkabel von Belden. Seitdem bietet er neben herstellerspezifischen Schulungen auch Einsteigerseminare für Kupfer- und LWL-Technik, LWLWorkshops und Überblickseminare zu aktiven Komponenten an. Der Schwerpunkt liegt dabei auf den passiven Komponenten. Mehrere Berater mit Informatik- und Installationsausbildung unterstützen Installateure gegebenenfalls bei der Planung von Netzwerken sowie bei der Angebotserstellung oder wenn Probleme mit aktiven Komponenten auftreten. Damit ist allerdings kein Produkt-Support gemeint, sondern es geht um auftretende Fragen im Projektablauf. Darüber hinaus bietet der Großhändler Schulungen für Kabeltester von Microtest und Wavetek Wandel Goltermann (demnächst Acterna) an. Dabei geht es um Abnahmemessungen, aber auch um Entscheidungskriterien für die Geräteauswahl. Der Installateur muss die Geräte aber nicht kaufen, sondern kann sie leasen oder sich für zum Beispiel eine Abnahmemessung ausleihen. Er erhält dann vor Ort eine Unterweisung für das Leihgerät. Sollten zum Beispiel bei einer Fehlerlokalisierung Probleme auftreten, bietet Otra Telefon-Support an. Das gilt für LAN-Tester, OTDRs (Optical Time Domain Reflectometer) sowie für Spleißgeräte. Gerade der Verleih von Messgeräten wird laut Thomas Daume, Produktmanager für die Bereiche Datennetzwerktechnik und Fernmelde- und Nachrichtentechnik bei Otra Nord-Ost, im Moment gern genutzt, da die Normierung für Highspeed-Datennetze noch nicht klar definiert ist. Otra Deutschland besteht aus neun Einzelgesellschaften mit regional etwas unterschiedlichen Schwerpunkten und www.lanline.de netzLÖSUNGEN Produktpaletten. Vor allem die Gesellschaften in Hannover (Otra Nord-Ost) und Mainz (DITHA Süd-West) gelten als die Vorreiter in Sachen Datentechnik, da sie den Bereich ins Leben gerufen haben. Darüber hinaus sind laut Daume zum Beispiel die süddeutschen Niederlassungen sehr stark in der Datentechnik. Doch Thomas Daume geht davon aus, dass sich die Produktpalet- grund ihrer technischen Eigenschaften und befindet sich derzeit in Zusammenarbeit mit Frauenhofer IAO und neun weiteren Elektro-Großhandelsgruppen in der Abstimmungsphase. Informationen darüber sind über www.otra.de oder über www.etim.de abrufbar. Derzeit sind dort 170.000 von Otra angebotene Artikel mit ihren Datenblättern gelistet, und der Anwender kann über Eigenschaften und Synonymsuche herstellerübergreifend nach für ihn passenden Komponenten suchen. Der Zugriff darauf ist über die Otra-Produkt-CDROM oder über das Otra-Online-Bestellsystem (www.otra.de) möglich. Das Fraunhofer Institut baut dieses System im Auftrag des Vereins ETIM Deutschland als Branchendatenbank für den gesamten Elektrogroßhandel aus. REXEL CONECTIS Beim Elektrogroß- Thomas Daume, Produktmanager für die Bereiche Datennetzwerktechnik sowie Fernmelde- und Nachrichtentechnik bei Otra NordOst: “Wir haben die Komponenten aller führenden Hersteller in diesen Bereichen im Programm.” ten zunehmend vereinheitlichen werden. Ein erster Schritt in diese Richtung sind der gemeinsame Produktkatalog und das Online-Bestellsystem. Ist eine Bestellung bis 18:00 Uhr eingegangen, erhält der Kunde die Produkte in der Regel schon am nächsten Tag auf seiner Baustelle, in manchen Fällen 48 Stunden nach Bestelleingang. Die Auslieferung erfolgt mit eigenem Fuhrpark. Damit ein Installateur oder Planer bei der Komponentenauswahl nicht in verschiedenen Herstellerkatalogen blättern muss, hat Otra eine herstellerunabhängige Artikeldatenbank auf Basis von ETIM (Elektrotechnisches Informationsmodell) eingerichtet. ETIM ermöglicht die Suche nach Produkten auf- www.lanline.de händler Rexel agiert die Tochtergesellschaft Conectis zum einen als Dienstleister in Sachen Fernmelde- und Datentechnik für das eigene Unternehmen und unterstützt zum anderen den Endkunden, also vor allem den Installateur, bei projektbezogenen Fragen. Conectis übernimmt die Produktauswahl und das Marketing für diesen Großhandelsbereich und sorgt dafür, dass diese verfügbar sind. Zu den wichtigsten Kunden zählen kleine Installationsbetriebe und große Elektroinstallateure mit eigener Netzwerkabteilung, aber auch Systemhäuser und Industriekunden wenden sich an den Großhändler. Das Gros der Produkte stammt aus dem passiven Bereich, doch Conectis erweitert zunehmend seine Produktpalette und sein Serviceangebot in Richtung aktive Komponenten. Denn immer mehr Installateure schließen auch gleich die aktiven Komponenten mit an. Das Conectis-Personal schult deshalb nicht nur die eigenen Angestellten in den Niederlassungen, sondern auch Installateure. Damit will Conectis-Geschäftsführer Bernd Richter gewährleisten, dass an allen Niederlassungen ein kompetenter Ansprechpartner für die Daten- und Kommunikationstechnik zur Verfügung steht. Rund L AN line 12/2000 129 netzLÖSUNGEN 80 Prozent der dreizehn Seminarthemen beschäftigen sich mit der passiven Netzwerkinfrastruktur (Kupfer, Glasfaser und zugehörige Messtechnik), der Rest Bernd Richter, Geschäftsführer von Rexel Conectis, sieht sein Unternehmen “nicht als Lowcost-Versender”, sondern gewährleistet zum Beispiel, “dass die angebotenen Komponenten der Klasse D und zum Teil auch der künftigen Klasse E normgerecht zusammenspielen”. Das erfolgt über Link-Zertifikate von Kabel- und Komponentenherstellern. behandelt aktive Komponenten. Technisch anspruchsvolle Seminare für den Endkunden halten die vier Trainer ab, die zentral bei Conectis in Hannover angestellt sind; die Standardtrainings führen in den regionalen Niederlassungen 13 ausgebildete Trainer durch, die auch individuell zusammengestellte Seminarpakete für Installateure anbieten können. Die Conectis-Trainer und -Berater verfügen alle über eine CCNESpezialisten-Ausbildung von Comconsult sowie über diverse Zertifizierungen wie beispielsweise für Voilition von 3M. Sie unterstützen Installateure bei grundlegenden Fragen der Netzwerkplanung oder Fragen, die in der Projektphase auftreten, helfen bei der Auswahl geeigneter Komponenten und können zum Beispiel bei Systemhäusern, die den passiven Bereich nicht als ihr Kerngeschäft ansehen, als kompetenter Part- 130 L AN line 12/2000 ner auftreten und bei der Realisierung der Projekte helfen. Das kann aber auch nur die Vermittlung eines Installateurs in der Nähe sein. Die Conectis-Mitarbeiter planen allerdings keine Netze und übernehmen auch keine Netzwerkwartung, um nicht in Konkurrenz zu ihren eigenen Kunden zu treten. Die Produkte reichen von passiven Komponenten und Messtechnik (hauptsächlich Fluke) über USVs bis hin zu aktiven Komponenten wie managebare Layer-3-Switches. Der Kunde kann sich bei den Conectis-Experten zum Beispiel über die fachgerechte Konfiguration der Komponenten informieren. Und auch Conectis verleiht Messgeräte. Darüber hinaus stellt der Großhändler für häufig auftretende Anforderungen speziell zusammengestellte und konfigurierte Produkt-Bundles zur Verfügung. Ein Beispiel dafür ist das Angebot für die Initiative “Schulen ans Netz”: Das dafür zusammengestellte Paket soll dafür sorgen, dass der Hauselektriker einer Schule nicht vollkommen hilflos vor dem Thema Datenvernetzung stehen muss. Damit selbst bei Hochleistungsnetzen Mix-and-Match-Lösungen möglich sind, gewährleistet der Eltrogroßhändler zudem, dass die angebotenen Produkte der Klasse D und zum Teil auch der künftigen Klasse E normgerecht zusammenspielen. Das erfolgt über LinkZertifikate von Kabel- und Komponentenherstellern (beispielsweise BTR, Ackermann und Quante). Denn Bernd Richter sieht sein Unternehmen “nicht als Low-cost-Versender, sondern gewährleistet Standzeiten von fünf bis zehn Jahren”. Das heißt, die Produkte müssen dem Stand der Technik entsprechen. Auch Conectis beliefert binnen 24 Stunden die Baustelle und bietet für Großprojekte einen Just-in-time-LieferService an. Bei den beiden beschriebenen Szenarien erhält ein Unternehmen zwar sein Netzwerk aus einer Hand, der Installateur oder das Systemhaus greift dabei allerdings auf die mehr oder weniger umfangreiche Unterstützung seines Großhändlers zurück. Das heißt, hier werden Wissenslücken über Produkte oder Techniken durch externe Hilfe aufgefüllt. WIRKLICH AUS EINER HAND Das Sys- temhaus Deltacom in Frechen geht einen komplett anderen Weg. Das 40Mann-Unternehmen entwickelt und produziert ein eigenes strukturiertes Verkabelungssystem nach der künftigen Klasse E, das sich auf spezielle Anforderungen einfach integrieren lässt. Das Systemhaus beschäftigt eigene Installateure, die auch Brandschutzmaßnahmen durchführen können. Die George Grella leitet zusammen mit Iris Kremp das Systemhaus Deltacom. George Grella achtet dabei darauf, dass möglichst viele Leistungen aus dem eigenen Hause kommen. Um das zu ermöglichen, beschränkt sich das Unternehmen mit 40 Angestellten laut Grella “auf die Infrastruktur-Hardware sowie auf ausgewählte Techniken und Hersteller”. Projektingenieure werden regelmäßig auf Schulungen geschickt, damit möglichst viel Know-how im eigenen Hause vorhanden ist und möglichst wenig nach außen vergeben werden muss. Damit das überhaupt realisierbar ist, beschränkt sich Deltacom laut Geschäftsführer George Grella auf die Infrastruktur-Hardware und zudem auf bestimmte Techniken und ausgewählte Hersteller. www.lanline.de netzLÖSUNGEN Die Serie Netzwerkdienstleister in der LANline Dieser Artikel ist der zweite Teil der LANline-Serie “Netzwerkdienstleister”. In Ausgabe 11/2000 erschien ab Seite 172 ein Beitrag über “Managed Services und Outtasking” von großen, international agierenden Dienstleistern. Die nächste Folge wird in Ausgabe 01/2000 erscheinen und sich mit dem Thema Dienstleistungen rund um IP-Telefonie beschäftigen. (Doris Behrendt) Zu den Hauptlieferanten zählen Extreme Networks, Cisco im Access-Bereich, Compaq für Server, Nbase-Xylex (Optiswitch-Produktserien) und Syskonnect mit redundanten GigabitEthernet-Adaptern sowie IRE (Sicherheitskonzepte für Internet-Infrastrukturen). Durch die ausgesuchte Produktpalette kann das Unternehmen laut George Grella fast alles ab Lager liefern. Außerdem beschränkt sich Deltacom auf TCP/IP, Ethernet und die Betriebssysteme Netware, Windows und Linux. ATM, Token Ring und FDDI sind bis auf Migrationsstrategien kein Thema. Ziel ist eine durchgängige, aufeinander abgestimmte Gigabit-Ethernet-Infrastruktur von der Verkabelung über das Backbone bis hin zu den Servern. Damit möchte Grella erreichten, dass “der schwächste Punkt immer die Festplatte ist, nie das Netzwerk”. Neben der Netzwerkplanung und -realisierung bietet das Systemhaus auch Troubleshooting, einen Rund-um-dieUhr-Notdienst und Fernüberwachung von Netzen an. Bevor neue Komponenten beim Kunden installiert werden, testen die Deltacom-Mitarbeiter diese im eigenen Testnetz und simulieren dabei möglichst realitätsnah den Betrieb beim Kunden, sodass unliebsame Überraschungen bei der Umstellung möglichst ausgeschlossen sind. Darüber hinaus finden regelmäßig Schulungen mit Zertifizierungen, zum eigenen Verkabelungssystem statt sowie herstellerunabhängige Schulungen zu den Netzwerkthemen, in denen das Systemhaus seit 1987 Erfahrungen gesammelt hat. Auch eigene Netzwerkerweiterungen führen bei Deltacom die Mitarbeiter selbst www.lanline.de durch. George Grella will, “dass möglichst viel selbst gemacht wird und so das Know-how immer auf dem aktuellen Stand bleibt und mit den aufkommenden Techniken mitwächst”. So entstand zum Beispiel auch die unternehmenseigene Website vollständig in Eigenregie. Damit ein Systemhaus, das gleichzeitig als Hersteller auftritt, diese Leistungen überhaupt bewältigen kann, teilt sich das Unternehmen in BusinessTeams für Vertrieb, Service, Projekte und Installation auf. Zielgruppe sind kleine, mittlere und Großunternehmen, die langfristig – laut Grella im Schritt sieben bis zehn Jahre – mit dem Systemhaus zusammenarbeitet. PRODUKTREIHEN Sowohl Deltacom als auch Rexel Conectics und Otra bieten eigene, preiswerte Produktreihen mit gelabelten Komponenten an. Deltacom hat neben dem selbstentwickelten und gefertigten Verkabelungssystem Euro DVS die managementfähige Gigabit-Produktserie Magnum mit aktiven Komponenten im Programm. Otra bietet unter dem Namen Topnet aufeinander abgestimmte passive Komponenten und Schränke an, und Rexel Conectics vertreibt unter dem Namen Gigamedia und LWL- und Kupferkomponenten. (Doris Behrendt) EIGENE Weitere Informationen: Otra Datennetzwerktechnik (DNT) Web: www.otra.de Rexel Conectis Web: www.conectis.de Deltacom Web: www.deltacom.de L AN line 12/2000 131 SCHWERPUNKT: STORAGE AREA NETWORKS ALLIANZEN UND PHILOSOPHIEN DIE ZUKUNFT DER SPEICHERVERWALTUNG STORAGE AREA NETWORKS Datenspeicherkapazitäten und deren Verwaltung sind plötzlich die wichtigsten Themen in größeren Unternehmen. Die benötigten Kapazitäten steigen um mehr als 100 Prozent jährlich, und die Verwaltung der Daten wird auf 40 Prozent der Gesamtkosten für das Speicherbudget geschätzt. Für die Lösung der Problematik gibt es vielfältige Angebote, wobei die jeweils eigene eines Anbieters die Beste sein soll. 132 L AN line 12/2000 www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Die drei Anschlusstechniken DASD, NAS und SAN bezeichnen durchaus zutreffend die physikalische Nähe zum Rechner/Server und logische Zuordnung der Speicherlaufwerke in einem vernetzten Computersystem. DASD Eine Direct Attached Storage Disk (DASD) ist ein direkt am Rechner/Server angeschlossenes Speicherlaufwerk und verwendet als Schnittstelle beispiels- weise ATA, SCSI oder IEEE 1394 (Firewire, I-Link). Die Laufwerke können Plug and play eingebunden sein und werden amerikanisch als JBOD (Just a Bunch Of Disks) bezeichnet. In größeren Systemen (bereits ab drei bis fünf Platten) sind die Laufwerke üblicherweise in einem RAID-Verbund integriert. Administrator, Betriebssystem und Rechner müssen die Laufwerke einzeln kennen, konfigurieren und im laufenden Betrieb alle Einzelaktionen auslösen. Zugriffe aus dem LAN werden gezielt über den zugehörigen Server unter dessen Kontrolle durchgeführt. Bisher rüsten Unternehmen bei steigendem Bedarf die einzelnen Server laufend auf. Dabei geht irgendwann die Übersicht verloren, Kapazitäten an einer Stelle liegen brach, an anderen Stellen kommt es zu Engpässen. Das führt dazu, dass Daten oft mehrmals im Unternehmen vorhanden sind. Das Management der vielen Daten ist heute schon teurer als der Anschaffungspreis für die benötigten Datenspeicher. NAS Ein Network Attached Storage Device (NAS oder NASD) ist technisch genau so angeschlossen wie eine DASD. In einem NASD-System hat der Server aber keine eigenständigen Aufgaben, daher der Name “Thin Server”. Er stellt nur über seine IP-Adresse den Netzzugang her und darüber den Zugang auf möglichst viel angeschlossenen Speicherplatz. Network Appliance hat ein neues Dateisystem DAFS (siehe LANline 11/2000) zur Beschleunigung des Dateizugriffs vorgeschlagen. Bei größeren NASD-Systemen und für das Backup mit Bandlaufwerken wird ein lokales SAN eingesetzt. Bei DASD und NASD erfolgt der gesamte Datenverkehr über das LAN. Große Datenströme bei CAD- oder Multimedia-Anwendungen blockieren den Netzverkehr sehr stark. Durch besonders große, vorgeschaltete Zwischenspeicher (Cache) soll dies gemildert werden. Diese glätten wohl die Spitzen, können aber, wie jeder Cache, die Bandbreite nicht erhöhen. SAN Das SAN ist ein eigenes Hochge- schwindigkeitsnetz “hinter” den Servern. Alle Laufwerke bilden zusammen einen großen Speicher, der von allen Servern bedient werden kann. Die Server haben keinen direkt angeschlossenen Speicher, sondern Netzkarten (hier HBAs genannt), mit denen sie über die SAN-Infrastruktur auf den gesamten Speicher zugreifen. Das (primäre) LAN wird von den großen Datenübertra- www.lanline.de L AN line 12/2000 133 SCHWERPUNKT: STORAGE AREA NETWORKS gungsmengen zwischen den Servern entlastet. Datensicherung (Backup) und Datenübertragung ist im Hintergrund (im SAN) auch bei laufendem Betrieb (im LAN) möglich, wodurch die zeitnahe Sicherung der Daten erst wieder möglich wird. Backup-Probleme sind bisher der wichtigste Grund für die Einführung eines SAN, und der Fibre Channel (FC) ist das passende Übertragungsmedium dafür. einige Firmen zu Allianzen und Konsortien zusammengeschlossen, um dem Kunden für das Tagesgeschäft wenigstens die notwendigen Insellösungen bieten zu können. SPEICHERVERWALTUNG IM SAN Ein SAN wird dann eingerichtet, wenn große Speichermengen und eine zeitnahe Datensicherung benötigt werden. Das bedingt dann den Einsatz von weitgehend automatisierten Speicherverwaltungssystemen. Diese ManagementSoftware wird also zuerst für SANs ent- SPEICHERVERWALTUNG Die Verwaltung von großen Datenmengen in einer heterogenen Umgebung ist heute das vorrangige Problem. Das ist keine Besonderheit des SANs, sondern der Daten- und Gerätemengen, ihrer Vielfalt und Inhomogenität. Wirklich große Speichermengen können nur über ein FC-gestütztes SAN aufgebaut werden, allein schon wegen der hohen Datenraten, die im SAN möglich sind. Daher kam das Managementproblem erstmals beim SAN-Betrieb zum Vorschein. Stabile Standards für die FC-Schnittstellen und Kanäle gibt es schon seit vielen Jahren. Für die Verwaltung der Die Platten- und Bandlaufwerke sind einem Server fest zugeordnet. riesigen Datenmen- Der Zugriff muss über den lokalen Server erfolgen. Quelle: Technology Consulting gen existieren aber noch keine Standards, sondern nur einige wenige Teile wickelt. Oft werden daher das SAN und davon. Die für den Betrieb eines SANs die dazugehörige Management-Softnotwendige Management-Software soll ware als eine Einheit gesehen. Das von der SNIA zur Normung bei den Nor- Speichernetz (SAN) wiederum wird fast mungsgremien angeregt oder selbst stan- ausschließlich mit FC-Infrastruktur bedardisiert werden. Bisher ging diese Ar- trieben. So ist es nicht verwunderlich, beit zu langsam voran. Daher haben sich dass der Eindruck entsteht, fehlende 134 L AN line 12/2000 FC-Standards wären die Ursache von Speichermanagement-Problemen. Die wichtigste Funktion eines SAN ist die zentrale Verwaltung von Datenspeichersystemen unterschiedlicher Hersteller. So können unternehmensweite Sicherheits- und Sicherungsstrategien reibungslos eingesetzt werden. Damit der Speicher zentral verwaltungsfähig wird, muss er zuerst konsolidiert werden. Die Management-Software versucht, alle Speichereinheiten im SAN zu finden und deren Parameter (Kapazität usw.) abzufragen. Dazu dient beispielsweise die Management Information Base (MIB), die von der Fibre Alliance für die SNIA bei der IETF zur Normung eingereicht wurde. Von Brocade und anderen Firmen wurden weitere Software-Hilfsmittel ebenfalls in die zuständigen Normungsgremien eingebracht. Ein SAN ist erst ab einer gewissen Speicherkapazität wirtschaftlich. Daher sollte möglichst der gesamte im Unternehmen oder Unternehmensbereich vorhandene Speicher in ein oder mehrere SAN(s) zusammengeführt werden. Die Teile eines Speichersystems müssen danach einwandfrei zusammenarbeiten und auch mit neuen Komponenten erweiterbar sein. Das ist besonders wichtig bei den heute üblichen dezentral vernetzten Systemen. In einem SAN können vorhandene Kapazitätsreserven ohne lokale Bindung genutzt werden. Hard- und Software sind in Leistung und Kapazität in weiten Grenzen skalierbar. Bis zum Vorliegen von Managementstandards sollten vorwiegend Produkte eingesetzt werden, die im Rahmen einer Allianz schon auf ihre Kompatibilität geprüft wurden. Der Idealzustand an Normung für die notwendige Interoperabilität und Verwaltungsfunktionen ist noch nicht erreicht. Zur Lösung der anstehenden Probleme haben sich daher einige Hersteller zusammengetan. Sie haben die Kompatibilität für ihre Produkte hergestellt und die dazu nötige Verwaltungs-Software auf der Basis vorhandener Datensicherungsprogramme weiterentwickelt. Leider haben dies mehrere Gruppen gleichzeitig und unabhängig voneinander getan www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS und dadurch viele Insellösungen erzeugt. So gibt es derzeit mehr als 20 formal zusammenarbeitende Gruppen oder Allianzen und einige informelle Kompatibilitätslisten. ALLIANZEN Die Allianzen versuchen die dafür notwendige Interoperabilität zumindest für die Produkte der jeweiligen Allianzmitglieder herzustellen. Einige tun dies explizit als Vorleistung für die von der SNIA zu definierenden Standards. Die Allianzen kann man in Herstellerallianzen, Kompatibilitätsallianzen und neutrale Standardisierungsgremien einteilen. Für jede Art sind nachfolgend einige Beispiele aufgeführt. – Herstellerallianzen: ENSA, Fibre Alliance, Jiro, Legato Celestra, Veritas V3. – Kompatibilitätsallianzen: FCIA (SANmark), OSFI, Tachyon. – Standardisierungsgremien: ANSI, HPSS, IANA, IEEE SSSWG, IETF. steller von Fibre-Channel-Switches wie etwa Ancor, Brocade, Gadzoox, McData und Vixel in der OSFI zusammengeschlossen. Ein entsprechender Normvorschlag wurde dem FC-Komitee beim ANSI übergeben. Die OSFI will sich wieder auflösen, sobald die entsprechende Norm verabschiedet ist. GREMIEN Normen und Industriestan- dards wurden schon entwickelt als es noch keine Notwendigkeit für zentral verwaltete heterogene Speichersysteme gab. Diese Normen erfüllen Teile der Anforderungen für die Verwaltung eines SAN. Normen wie SCSI, RAID und chische Speicherverwaltung (HSM) wird im IEEE-Komitee SSSWG (P1244) definiert. Gremien mit nur beratender Funktion wie HPSS oder THIC diskutieren grundlegende Probleme, die von Firmen oder Gremien bei ihren Definitionen berücksichtigt werden. Einige der oben genannten Allianzen werden nachfolgend in alphabetischer Reihenfolge kurz vorgestellt. – ANSI: Die ANSI-Komitees T10 und T11 normieren SCSI, ATA, Fibre Channel und verwandte Standards. Weniger bekannt ist zum Beispiel die Norm “SCSI Enclosure Services” (SES) als Standard für die Auslegung HERSTELLERALLIANZEN Bei den Her- stellerallianzen ist meist ein größerer Hardware- oder Software-Anbieter die Keimzelle für eine Allianz. Beispiele sind EMC (Fibre Alliance), Legato (Celestra Consortium), Sun (Jiro) oder Veritas (V3 SAN Initiative). Im “SAN Solution Provider”-Programm von TIM in Wiesbaden sind mehr als fünfzehn meist mittelständische Händlern und Systemhäuser zusammengeschlossen. Diese Firmen sind keine Hersteller, sondern Systemhäuser, die mit Unterstützung ausgewählter Hersteller im Tagesgeschäft vor Ort beim Kunden konfigurieren, installieren und Service bieten. Für eine SANInstallation wird praktisch immer ein Systemhaus benötigt. Kein Hersteller kann alle benötigten Hard-, Soft- und Middleware-Komponenten oder die Integrationsleistung anbieten. KOMPATIBILITÄTSALLIANZEN Bei einigen Allianzen ist nur die Interoperabilität auf der Funktions- oder Geräteebene das Ziel. So haben sich die Her- 136 L AN line 12/2000 Im SAN sind alle Speicher von jedem Server aus zugänglich. Bei Fehlern oder Überlastung können Alternativwege gewählt sowie Speicherreserven direkt genutzt werden. Quelle: Technology Consulting Fibre Channel wurden in ANSI-Komitees erarbeitet. Sie bilden die Basis für die zu erwartenden SAN-Normen. Neben den ANSI-Komitees gibt es Industrievereinigungen, die ebenfalls die SAN-Standardisierung unterstützen. Die SCSITA fördert die Normierung und Verbreitung der SCSI-, RAID- und Gehäusetechnik. Die FCIA fördert die Verbreitung des Fibre Channel und seiner weiteren Normierung. Das IETF spezifiziert die MIBs, und die IANA vergibt Netzwerkadressen. Die hierar- von Überwachungs- und Steuereinrichtungen für Systeme mit hoher Verfügbarkeit. So werden etwa Ausfälle von Netzteilen, Kühlgebläsen oder Laufwerken in standardisierter Form über die Kommunikations-Infrastruktur an die Verwaltungseinheit (zum Beispiel aktuelle Operator-Konsole) gemeldet. – Celestra Consortium: Legato hat zusammen mit Firmen wie beispielsweise Adic, Clariion, Compaq, Emulex, Qlogic, Quantum, Storagetek und www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Sun ihre “Information Utility” als Celestra Architecture und als eine Vision für die Zukunft von SANs vorgestellt. – Enterprise Network Storage Architecture (ENSA): ENSA wurde von Compaq als ein all-umfassendes, interoperables, automatisches Speicherverwaltungssystem vorgestellt. Die neueste Entwicklung in diesem Konzept ist Versastor als derzeit einziges (virtuelles) Speichermanagementsystem, in dem auch Speichereinheiten von konkurrierenden Herstellern direkt zusammenarbeiten können. – FCIA (SANmark): Die FCIA fördert die Normierung und Verbreitung der Fibre-Channel-Technik. Die Interoperabilität wurde bisher bei so genannten Plugtests, meist an der Universität von New Hampshire (UNH), oder bei Interphase in Texas getestet. Diese Arbeit wurde unter dem Namen SANmark formalisiert. In Zukunft wird es dieses Logo an geprüften Produkten geben. Die UNH hat schon umfangreiche Erfahrungen mit Kompatibilitätsprüfungen für andere Netzwerktechniken gesammelt. – Fibre Alliance: Die Fibre Alliance unter Führung von EMC will die einheitliche Verwaltung von großen Mengen gespeicherter Daten in heterogenen Umgebungen über SNIA standardisieren. Damit die Verwaltungs-Software die Komponenten erkennen und parametrieren kann, wurde die dazu nötige MIB für SANs der IETF zur Standar- www.lanline.de – – – – disierung übergeben. EMC hat bereits heterogene Komplettlösungen aus Unix-, Windows NT- und MainframeKomponenten und ihren eigenen Speichersystemen im Einsatz bei Kunden. Die Fibre Alliance und EMC unterstützen die SNIA in besonderem Maße. IEEE SSSWG: In der Standardisierungsgruppe SSSWG (Storage System Standards Working Group) des IEEE wird das HSM-Konzept (IEEE P1244.1 bis 11) seit 1990 entwickelt. Kürzlich wurden vier Standards der Reihe IEEE 1244 verabschiedet. Einzelne Teile aus den P1244-Entwürfen werden in fast allen SAN-Anwendungen eingesetzt. IETF: Die IETF arbeitet seit 1986 als eine lose selbstorganisierte Gruppe von Fachleuten an der Entwicklung und Förderung von Internet-Spezifikationen. Verschiedene Allianzen haben MIBs zur Standardisierung bei der IETF eingereicht. Eine davon ist die von der Fibre Alliance eingereichte MIB für SANs. Open Standards Fabric Initiative (OSFI): Die Hersteller von FibreChannel-Switches (FC-SW) haben diese Initiative gestartet, um FC-Switches unterschiedlicher Hersteller auf SwitchEbene kompatibel zu machen. Ein Standardisierungsvorschlag für kompatible FC-Switches wurde an das ANSI-T11-Komitee übergeben. Tachyon Tested SAN Solutions: Bei Hewlett-Packard werden in einem be- sonderen Testlabor SAN-Produkte auf ihre Kompatibilität mit Tachyon-Chips von HP (jetzt Agilent) getestet. Tachyon ist seit einigen Jahren der Name für eine Familie von Treiber-Chips von HP für Fibre-Channel-Anwendungen. – THIC: Die THIC-Organisation ist ein Diskussionsforum über Speichertechnologien und -management in Anwendungen mit extrem hohem Speicherbedarf. Die ursprüngliche Bezeichnung “Tape Head Interface Committee” beschreibt nicht mehr die heutigen Aktivitäten. – Veritas V3 SAN Initiative: Veritas hat für die eigenen Software-Produkte wie L AN line 12/2000 137 SCHWERPUNKT: STORAGE AREA NETWORKS etwa Backup Exec und “Shared Storage Option” viele Hardware-Hersteller zertifiziert. Veritas unterstützt die SNIA besonders intensiv, und derzeit sind mehrere Veritas-Mitarbeiter an führenden Stellen in der SNIA tätig. SNIA – DIE ALLIANZ DER ALLIANZEN Die SNIA wurde Ende 1997 gegründet und versteht sich als zentrale Schaltstelle für die Normierung von Managementkomponenten im SAN. Schon bestehende Normen sollen übernommen werden. Die Normierung von fehlenden Komponenten wird in bestehenden Komitees angeregt und unterstützt. Wegen der hohen Mitgliederzahl von über 160 Unternehmen dauert es besonders lange, bis Entscheidungen fallen. In den USA sind rechtliche Probleme mit Lizenzen und Patenten bei der Standardisierung immer eine langwierige Angelegenheit. Daher haben einige der Allianzen die Standardisierung von Teilaspekten für die SNIA vorangetrieben. Die SNIA fördert auch die Zusammenarbeit mit anderen Industrievereinigungen. So haben zum Beispiel die SNIA und die DMTF eine enge Zusammenarbeit zur Lösung von großen Managementproblemen in IT-Organisationen beschlossen. NUTZEN UND EMPFEHLUNGEN FÜR DEN ANWENDER Das physikalische Zu- sammenschalten der Hardware mit einer Fibre-Channel-Infrastruktur ist kein großes Problem. Das unternehmensweite Management der gesamten Daten über viele Server hinweg ist die eigentliche Aufgabe eines SAN-Systems. Der Betrieb von heterogenen Systemen aus unterschiedlichen Rechner- und Betriebssystemplattformen, Dateiformaten, Controller-, Switch- und Speichermodulen sowie der Verwaltungs-Software von unterschiedlichen Herstellern muss in standardisierter Form möglich werden. Es wird angestrebt, dass die SNIA die dazu nötige Standardisierung organisiert. Wegen der noch nicht angeschlossenen Normung ist die laufende Anpassung an die sich entwickelnden Normen der SNIA und anderer Organisationen be- 138 L AN line 12/2000 Abkürzungen ANSI ATA CAD DAFS DASD DMTF ENSA FC FCA FCA-E FCIA FCLC FC-SW HBA HPSS HSM IANA IEEE IETF IP JBOD LAN MIB NAS NASD OSFI RAID SAN SCSI SCSITA SES SNIA SSSWG TCP THIC TCP WAN American National Standards Organisation Advanced Technology Attachment Computer-Aided Design Direct Access File System Direct Access Storage Drive Distributed Management Task Force Enterprise Network Storage Architecture Fibre Channel Fibre Channel Association (jetzt FCIA) FCA (FCIA) Europe Fibre Channel Industry Association Fibre Channel Loop Community (jetzt FCIA) Fibre Channel Switch Host-Bus-Adapter High-Performance-StorageSystem Hierarchical-StorageManagement Internet Address Networking Association Institute of Electrical and Electronics Engineers Internet Engineering Task Force Internet Protocol Just a Bunch Of Disks Local Area Network Management-Information-Base Network Attached Storage NAS Device Open Standards Fabric Initiative Redudndant Array of Independent Disks Storage Area Network Small-Computer-SystemInterface SCSI Trade Association SCSI Enclosure Services Storage Networking Industry Association Storage System Standards Working Group Transmission Control Protocol Tape Head Interface Committee Transmission Control Protocol Wide Area Network sonders wichtig. Die ständige Angleichung an den entstehenden Standard bietet die größte Freiheit bei der Produktauswahl. Die Speicherindustrie müsste aus der LAN-Geschichte gelernt haben, dass die langjährigen Akzeptanzschwierigkeiten Folge mangelnder Interoperabilität waren. Daher sollte der Anwender Firmen oder Konsortien aussuchen, die direkt und aktiv an der Standardisierung bei der SNIA mitarbeiten. Dazu gehören beispielsweise Brocade, Compaq, EMC, IBM, Legato, Seagate Technology, Storagetek und Veritas. Zusätzliche Anforderungen sind hohe Verfügbarkeit und Ausfallschutz, beispielsweise über Cluster-Systeme sowie skalierbare Leistung und Kapazität. Wichtig ist auch die hohe Übertragungsrate und große Entfernung zwischen (gespiegelten) Subsystemen über den Fibre Channel, damit Sicherheit und Datensicherung unter optimalen Bedingungen gewährleistet sind. Das Ziel ist der kontinuierliche Betrieb und schnelle Zugriff auf alle Daten im Unternehmen. Die Fibre-Channel-Organisation FCIA (Zusammenschluss von FCA und FCLC) und die SNIA wollen Standards für das Speichermanagement entwickeln oder fördern. Dazu wurde im Oktober 1999 eine Vereinbarung zwischen den Organisationen geschlossen. Bei der rasanten Zunahme der Speicherkapazitäten ist es falsch zu warten, bis ein Standard verabschiedet ist oder bis sich eine der Allianzen als Sieger herausstellen könnte. Die Speicherprobleme müssen jetzt unter Beachtung der genannten Kriterien (Migration zum offenen Standard) gelöst werden. Wer die Speicherkapazität nicht ständig dem Wachstum anpasst, gefährdet das Überleben seines Unternehmens, denn gespeicherte Daten sind heute das wichtigste Kapital. Die Firmen sollten jetzt in mehr und besser zugänglichen Speicher investieren, morgen ist die Nachrüstung zu teuer oder zu spät. Hersteller, die sich konform zu der Standardisierung der SNIA verhalten und die Migration dazu zusagen können, bieten die Gewähr für zukunftssichere Lösungen. AUSBLICK Der Fibre Channel ist die Ba- sis für die Konsolidierung und den Betrieb von unternehmensweiten Datennetzen mit SAN-Architektur. Der Fibre www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Channel mit seiner hohen Durchsatzleistung genügt auch erhöhten Sicherheitsanforderungen. Er sichert die Datenübertragung in Hardware und erlaubt es, die Daten zeitgleich in einem entfernten Speichersystem zu duplizieren. Die Komponenten für SANs sind heute vorhanden. Die Management-Software dazu in standardisierter Form fehlt zum großen Teil noch. Bis standardisierte Produkte verfügbar sind, muss der Anwender solche Lieferanten aussuchen, die jetzt schon passende Lösungen bieten und die den Übergang zum Standard mitmachen werden. NASDs (Network Attached Storage Devices) werden als problemlose Speichererweiterung (Thin Server mit IPAdresse) im LAN eingesetzt. Der Zugriff direkt über das primäre LAN gestaltet die Installation besonders einfach. Die niedrigen Übertragungsraten im EthernetLAN und die Blockade anderer Netzdienste durch die großen Datenmengen vom und zum Speicher begrenzen die Einsatzmöglichkeiten in ausgelasteten Systemen ganz erheblich. SAN und NASD sind für unterschiedliche Einsatzschwerpunkte konzipiert. Meistens werden beide in größeren Konfigurationen eingesetzt. Direkt angeschlossene Speicherlaufwerke sind nur in Einzel- oder Kleinsystemen oder für lokale Insellösungen sinnvoll. Versastor von Compaq kann allerdings auch DASD-Laufwerke in ein SAN integrieren. Zur Verbesserung der Aus- www.lanline.de fallsicherheit sollten sie wie in SAN und NASD-Systemen als RAID-Anordnungen betrieben werden. Fibre Channel über WAN und TCP/IP ist inzwischen auch als Produkt, zum Beispiel von CNT, verfügbar. So können SANs weltweit gekoppelt werden. Das Dateisystem DAFS von Network Appliance soll neben dem Einsatz in NASKonfigurationen auch in SAN-Systemen genutzt werden. MARKTZAHLEN Ende August 2000 hat Dataquest seine Voraussage für das Wachstum im Markt für Speichernetzwerke deutlich erhöht. Die jährliche Umsatz-Wachstumsrate von 87 Prozent zwischen 1998 und 2004 lässt in 2004 einen Umsatz von sieben Milliarden Dollar erwarten. Als Zwischenergebnis wurde der früher geschätzte Umsatz in 2003 von 3,5 Milliarden Dollar auf etwas mehr als fünf Milliarden Dollar angehoben. Der Markt für SAN-Produkte soll nach Meinung des Marktforschungsunternehmens Emf Associates bei einer Steigerungsrate von 56 Prozent/Jahr von etwa 5,5 Milliarden Dollar in 1999 auf mehr als 32 Milliarden Dollar in 2003 wachsen. Die Marktforscher von IDC schätzten für den europäischen Speichermarkt in 1999 einen Umsatz von 8,4 Milliarden Dollar und 11,8 Milliarden Dollar im Jahr 2002. Die Gartner Group hat vergleichsweise etwas höhere Zahlen mit 9,6 Milliarden Dollar in 1999 und 14,2 Milliarden Dollar in 2002 ebenfalls für den europäischen Speichermarkt. Die Zuwachsrate an Speicherkapazität beträgt nach Meinung der IDC derzeit 100 Prozent/Jahr. IDC erwartet ein Marktwachstum von 14,5 Prozent in diesem Jahr von 30 auf 34,3 Milliarden Dollar für “Disk Storage Hardware”Produkte. Nach einer von IBM beauftragten Marktuntersuchung durch IDG glauben 89 Prozent der befragten Unternehmen, dass mit der SAN-Technologie die Datenzunahme leichter verwaltet und die Expansion leichter bewältigt werden kann. Die Marktzahlen zeigen deutliche Unterschiede, weil die Erhebungsmethoden und das eingeschlossene Produktportfolio erheblich voneinander abweichen. Die einzige Gemeinsamkeit ist die sehr positive Einschätzung für das zukünftige Umsatzwachstum trotz fallender Produktpreise. (Hermann Strass/mw) Hermann Strass ist Berater für neue Technologien, insbesondere für Busarchitekturen, Massenspeicher und industrielle Netzwerke, Mitglied in nationalen und internationalen Normungsgremien, in der IEEE Computer Society sowie “Technical Coordinator” der VITA in Europa. Hermann Strass schreibt Bücher, Zeitschriftenartikel und organisiert Seminare. L AN line 12/2000 139 SCHWERPUNKT: STORAGE AREA NETWORKS NACH ZEHN JAHREN RAPIDE AUFWÄRTS Fibre Channel – ein Spätzünder Der technische Fortschritt, der rapide Zuwachs der Kapazitätsanforderungen durch das Internet und der Preisverfall bei Datenspeichern hat dazu geführt, dass die in Unternehmen installierten Kapazitäten explosionsartig zunehmen. Für den Transport dieser großen Datenmengen wird ein schnelles und besonders schnell reagierendes Übertragungsmedium benötigt. Mit dem Fibre Channel ist es möglich, die Datenmengen mit bis zu 2 GBit/s schnell zu übertragen und auch entfernt liegende Ausweichrechenzentren in Echtzeit mit gespiegelten Daten zu versorgen. ls vor etwas mehr als zehn Jahren die Standardisierung begann, hieß das Projekt noch “Fiber Channel” nach amerikanischer Rechtschreibung. Es war geplant, diesen Standard auch international über ISO/IEC zu normen. Daher wurde als Geste gegenüber den Europäern die englisch/französische Schreibweise Fibre Channel gewählt. Außerdem ist die Schreibweise Fibre (Netz/Kanal) beziehungsweise Fiber (optische Faser) heute die Unterscheidung zwischen der System- A technik (Fibre) und einem der Übertragungsmedien. Fibre Channel kann ja auch mit den gleichen Geschwindigkeiten über Kupferleitungen betrieben werden. Der Begriff Channel musste gewählt werden, weil zum Beispiel Fibre Net, was die Hauptanwendung von FC beschreibt, als Projektname bei ANSI nicht genehmigungsfähig war. Das Privileg der Netzentwicklung war für die IEEE-802-Gruppe reserviert. Das entsprechende IEEE-Normungsgremium ist vom ANSI dafür ak- Im FC-AL können bis zu 126 Geräte (Rechner, Plattenlaufwerke und andere) zusammengeschlossen werden. Werden die Verbindungsleitungen (Oval in der Zeichnung) in eine Box komprimiert, dann ist dies ein Hub. 140 L AN line 12/2000 kreditiert. Die Gründer und Befürworter des Fibre Channel wollten mit voller Absicht aber keine alten Zöpfe aus dem Ethernet-Standard übernehmen. Die Anforderungen an einen speicher-zentrischen Betrieb sind grundlegend anders als die eines LAN-Betriebs. Es war damals bereits klar, dass auch eine zu definierende Variante von Ethernet grundsätzlich nicht für den vernetzten Speicherbetrieb geeignet wäre. Es gibt natürlich heute Überschneidungen, die Anforderungen bleiben aber grundsätzlich unterschiedlich. Dieser Neuanfang auf der grünen Wiese war keine Veranstaltung von Akademikern, die üblicherweise an realen Produkten nicht interessiert sind und zehn Jahre damit verbringen, um sich am Ende zu entscheiden, dass eine andere Theorie doch viel interessanter wäre. Im FC-Gremium sind bis heute nur Praktiker tätig, die alle mit SCSI, ATA (IDE/EIDE) und Ethernet Erfahrung haben. Der FC wurde entwickelt, um für den vorgesehenen Zweck ein Optimum an Leistung und Qualität mit einem Minimum an Verwaltungsaufwand zu erreichen. Der Fibre Channel war von Anfang an eine Vermittlungstechnik (Switching Technology). Die Loop-Variant FC-AL mit einem gemeinsamen Ring-Bus (Shared Medium) kam erst einige Jahre später als Billig-Variante dazu, weil es bis dahin noch keinen Bedarf an der Leistung des FC gab. In den Anfangszeiten wurden das FCGremium belächelt, weil es Switching und zentrale Steuerung für die Zukunft plante. Jeder selbsternannte Fachmann wusste damals, dass verteilte Systeme (Decentralized Control) die richtige Architektur war. Domain und Name-Server wurden als absurd abgetan. Für die Definition der Steckverbinder sollte die EIA, ebenfalls ein von ANSI akkreditiertes Normungsgremium zuständig sein. Die geplanten Anforderungen von Steckverbindern für den Fibre Channel waren aber soweit jenseits des damaligen Erfahrungshorizonts der EIA-Experten, dass diese sich nach einigen gemeinsamen Sitzungen zurückzogen. Das Steckverbinderproblem tauchte vor etwa zwei Jahren auch bei der Normung von Gigabit Ether- www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS schen ausgereift. Sie erfüllt die Anforderungen und kann zügig weiterentwickelt werden, weil kein historischer Ballast bei jedem Entwicklungsschritt zu neuen Kompromissen zwingt. Fibre-Channel-Normenübersicht (Auszug) net (GBE) auf. Erst eine Woche vor der Verabschiedung der Kupfervariante von GBE hatte man festgestellt, dass die gängigen RJ45-Steckverbinder bei diesen Datenraten schlichtweg nicht geeignet waren. Die Verabschiedung diese Teils der Norm wurde ausgesetzt. Nach etwa einem Jahr war dann das Problem gelöst. Es ist interessant, dass niemand im GBE-Gremium auf die Idee kam, bei den ANSI-Kollegen im FC-Gremium (ANSI/T11) vorbeizuschauen. Zu dem Zeitpunkt war der FC mit Gigabit-Übertragung bereits im praktischen Einsatz. Es gab auch bereits zwei Steckverbinder-Varianten für die Übertragung mit Kupferleitungen. Die GBE-Fraktion blieb aber bei einer verbesserten RJVariante. Es werden anstatt einmal 1 GBit/s viermal 250 MBit/s über vier Drahtpaare parallel übertragen. Beim FC wird ein Gigabit auf einem Drahtpaar übertragen. Aus heutiger Sicht war es ein Vorteil, dass der FC nicht gleich um Anerkennung ringen musste als er noch im Entwicklungsstatium war. Die Technik ist inzwi- www.lanline.de ZIELSETZUNG Der Fibre Channel (FC) ist nicht durch Zufall entstanden oder aus einer propritären Firmentechnik hervorgegangen. Er wurde nach klaren Zielen entwickelt. Für die preisgünstige Verbindung von Peripheriegeräten und Rechner (Server) wird der FC-AL (Arbitrated Loop) eingesetzt. Das ist ein Ring-Bus aus aneinandergeschalteten Punkt-zu-Punkt-Verbindungen. Diese Loops oder bei höheren Datenraten auch einzelne Geräte, können über Switches wie in einer Telefonvermittlung direkt miteinander über Punkt-zu-Punkt-Strecken verbunden werden. Das Medium ist also immer gleich. Es muss nur die entsprechende Protokollvariante für die unterschiedliche Verbindungsart genutzt werden. Mehrere Switches in einem größeren Verbund bilden ein “Fabric” (Gewebe) oder “Switched Fabric” (Vermittlung). Diese Technik ist nicht wirklich neu. Telefonvermittlungen nutzen diese Verbindungstechnik schon seit Jahrzehnten. Das waren bis vor kurzem analoge Switches und Vermittlungen. Inzwischen gibt es auch “Switched Ethernet”. Infiniband (früher NGIO, dann SIO) wird derzeit als ein Switched Fabric mit einfachem Protokoll für kurze Verbindungen zwischen Servern entwickelt. Zur Erprobung wurden anfangs Myrinet-Chips nach ANSI/VITA26-Norm eingesetzt. Rapid-IO von Motorola und Mercury, mit Unterstützung durch L AN line 12/2000 141 SCHWERPUNKT: STORAGE AREA NETWORKS Bei einem Switch wird je ein Eingang mit je einem Ausgang verbunden. Jede dieser Verbindungen hat die volle Bandbreite. Cisco, Lucent, Nortel und anderen Unternehmen, wird als Switched Fabric auf einer Steckkarte und zwischen diesen, entwickelt. Rapid-IO ist eine Weiterentwicklung der parallelen Switch-Technik Raceway (ANSI/VITA 5 & VITA 5.1). An Switched PCI wird ebenfalls gearbeitet. Ein PCI-Loop (Sebring-Ring) wird seit einigen Jahren entwickelt. Anfangs wurden die vermeintlich hohen Kosten der neuen Technik kritisiert. FCHBAs oder -Laufwerke kosten etwa gleich viel wie hochwertige Parallel-SCSI-Produkte mit symmetrischer Schnittstelle (differential SCSI). An einem HBA können bis zu 16 Laufwerke oder ein ganzes FCNetz bis zu zehn Kilometer entfernt angeschlossen werden. Bei Parallel-SCSI sind es 15 Laufwerke in bis zu zwölf beziehungsweise 25 Metern Entfernung. Die Anschaffungskosten werden unbedeutend, wenn die Kapazitäten so groß sind, dass eine Bandsicherung unmöglich wird oder jeder Server mit Bandlaufwerken oder -Roboterstationen ausgerüstet werden müsste. In diesem Fall muss ein SAN mit FC ein- gerichtet werden. Bei den Verwaltungskosten, die bei größeren Systemen etwa 40 Prozent der Gesamtkosten ausmachen, ist der Unterschied besonders schwerwiegend. In einem SAN kann ein Administrator etwa die siebenfache Datenmenge verwalten im Vergleich zu Einzel-Servern mit direkt angeschlossenen Laufwerken. Damit können bei entsprechend großer Konfiguration erhebliche Personalkosten eingespart werden. TECHNIK Die Fibre-Channel-Technik ist ähnlich simpel wie die Telefontechnik aufgebaut, mit der der FC vieles gemeinsam hat. Die Anschlusselektronik (Node) ist sehr einfach ausgelegt. Jeder kann mit jedem direkt durch Zieladressierung verbunden werden. Unbekannte Adressen lassen sich bei einer zentralen Stelle erfragen. Beim FC ist die Übertragungstechnik auf der Transportebene in Hardware ausgeführt und abgesichert. Auch bei Überlast werden keine Datenpakete verworfen, es müssen keine ellenlangen Stacks abgearbeitet werden. Darüber hinaus besteht kei- Datenübertragungsraten je nach Übertragungstechnik 142 L AN line 12/2000 www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Der Frame ist die kleinste transportierbare Einheit auf einer FC-Verbindung ne Gefahr, dass bei Überschreiten der Anzahl der Zwischenstationen (hop count) die Datenpakete verworfen werden. Die Geräte (Nodes) sind, abgesehen von einer einzelnen Punkt-zu-Punkt-Verbindung, in einem Loop (FC-AL) oder über Schalter (Switches) verbunden. Mehrere Switches bilden ein Netzgewebe (Fabric), wobei ähnlich wie beim Telefonnetz die Vermittlungstechnik im Netz und nicht in den Endgeräten enthalten ist. In einem FCAL können bis zu 126 beliebige Geräte miteinander verbunden werden. In einem Netzsegment sind es mehr als 16 Millionen. Loops können wie einzelne Teilnehmer an ein Netz (Fabric) angeschlossen werden. Der Fibre Channel hat kein eigenes Protokoll, in das der Anwender seine Daten umwandeln muss. Die Daten werden mit ihren vorhandenen Kanal- (etwa SCSI) oder Netzprotokollen (zum Beispiel IP) übertragen. So ist der FC keine Konkurrenz oder Ablösung für SCSI, denn das SCSIProtokoll wird weiterhin für den Datenaustausch mit dem Speicher genutzt. Das parallele Transportmedium des herkömmlichen SCSI wird jedoch beim FC durch ein serielles Transportmedium ersetzt. Die FC-Architektur ist sehr einfach in fünf Ebenen gegliedert. Auf der obersten Ebene befinden sich die Kanal-, Netz- oder Multimedia-Protokolle, die der Anwender für die Übertragung einsetzt. Auf der untersten Ebene sind die verschiedenen Übertragungsmedien (zum Beispiel Kupfer, Glasfaser) und Geschwindigkeitsstufen (von derzeit 0,133 GBit/s bis 2 GBit/s), mit denen übertragen wird. Die drei Ebenen dazwischen müssen nicht alle tatsächlich vorhanden sein. Sie dienen der funktionalen Aufteilung der internen Abläufe. Die untersten drei Ebenen werden zur physikalischen Ebene (FC-PH) zusammengefasst und in Hardware-Logik ausgeführt. www.lanline.de So wird mit kurzen Reaktionszeiten (Latency) schnell und effizient bis über 95 Prozent Nutzlast übertragen. Im Ethernet liegt die Nutzrate deutlich niedriger, mit etwa 30 Prozent beim Ethernet-Bus oder etwa 60 Prozent bei Switched Ethernet. Das kann tatsächlich so direkt verglichen werden, weil beispielsweise die GigabitEthernet-Chips vom Fibre Channel übernommen wurden. Die Ineffizienz liegt beim Ethernet also im internen Protokollaufwand. Mit dem seriellen Fibre Channel können mehr Geräte (über hundert (FC-AL) bis mehrere Millionen (FC-Switch) über längere Strecken (über dutzende Kilometer) verbunden werden als mit dem parallelen SCSI-Bus. In beiden Fällen wird das SCSI-Protokoll eingesetzt. Der Fibre Channel (FC) ist das wichtigste Verbindungselement in einem SAN. Der Fibre Channel verbindet die Datenspeicher in einer Netzstruktur direkt miteinander. Diese sind also nicht mehr einzeln an einen Server fest angeschlossen sondern eigenständige direkt adressierbare Elemente in einem FC-Netz. Im Regelfall ist ein FC-AL nicht tatsächlich ein Ring aus langen Kabeln. Der Ring ist in einer kleinen Box als so genannter Hub konzentriert. An den Anschlüssen (Ports) werden dann die Geräte sternförmig über Stichkabel angeschlossen. Diese Konzentration in einen Hub erleichtert die zentrale Steuerung und erlaubt das Entfernen oder Anschließen von Geräten bei laufendem Betrieb. Am Port sorgen elektronische Überbrückungsschaltungen dafür, dass der Loop immer geschlossen, also betriebsbereit bleibt. Aufgrund der Loop-Struktur müssen sich die Teilnehmer die verfügbare Bandbreite teilen. Inzwi- L AN line 12/2000 143 SCHWERPUNKT: STORAGE AREA NETWORKS Serielle Übertragungssysteme schen gibt es auch so genannte “managed” Hubs. Je nach Hersteller sind in einem managed Hub unterschiedliche Zusatzfunktion eingebaut. So kann etwa ein Loop in mehrere kleinere unterteilt werden. FC-Switches dienen der physikalischen Kreuzverbindung, wobei die angeschlossenen Teilnehmer über ihre Ports direkt miteinander verbunden werden. Sie müssen sich das Kabel und die Bandrate nicht teilen. Alle verbundenen Paare können mit voller Datenrate übertragen. Für ein größeres Netz (Fabric) benötigen die Switches dann noch zusätzliche Funktionen, damit die Adressierung der Geräte und die Lenkung der Datenströme organisiert werden können. Loops und Switched-Fabric-Anordnungen konfigurieren sich selbst in Bezug auf Topologie, Teilnehmerart (Node Type), Adressen und Fähigkeiten der Teilnehmer. Zu den allgemeinen Diensten im Fibre Channel auf Ebene FC-3 gehören ein Name- und ein Alias-Server, ein KeyServer für die Nachrichtenverschlüsselung und die Management-Dienste (zum Beispiel Zugriffsrechte). Ein einzelner geschlossener Loop wird “private” Loop genannt. Kann über einen Port ein weiterer Loop oder Switch erreicht werden, dann ist dies ein “public” Loop. Der physikalische Anschluss (Port am Node) ist immer gleich. Die Funktionalität als private oder public Loop-Port beziehungsweise Switch- oder Fabric-Switch-Port wird durch Protokollvarianten erzeugt. Das kann zum Beispiel ladbarer Micro-Code in der Firmware des Geräts sein. Die FC-Übertragungstechnik garantiert die Übertragung aller Datenblöcke selbst 144 L AN line 12/2000 bei hoher Netzbelastung, was auch quittiert werden kann. Daten werden nur in einer Menge übertragen, wenn der nächste Empfänger in der Lage ist, diese Datenmenge zu übernehmen. Des Weiteren kann mit mehreren Protokollen gleichzeitig übertragen werden. Dazu gehören derzeit SCSI, IP, HiPPI, SBCCS (ESCON), Audio Video Fast File Transfer, Real-Time Embedded Avionics und VI. Die Art und Qualität (QoS) der Übertragung (zum Beispiel mit oder ohne Quittung) wird in Klassen eingeteilt. Bisher sind sechs Klassen definiert. NORMUNG Der Fibre Channel, SCSI und viele andere Normen werden direkt von ANSI-Gremien entwickelt. Für den FC ist das T11-Komitee zuständig. Zunächst begann die FC-Normierung als Studienauftrag und dann als formale Normung. Nach über zehn Jahren öffentlicher Normung im ANSI (siehe Tabelle FC- Funktionsvielfalt wird in den zuständigen ANSI-Normungsgremien gearbeitet. Transferraten von 2 mal 1 und 2 mal 2 GBit/s sind heute üblich. Höhere Raten bis etwa 2 mal 12 GBit/s werden untersucht. Der Fibre Channel hat bewusst kein eigenes Protokoll auf den höheren Schichten. Dort werden bewährte Protokolle wie SCSI, IP oder andere eingesetzt (Investitionsschutz). Bei Speicheranwendungen wird das seit vielen Jahren fortentwickelte SCSI-Protokoll verwendet. Somit müssen in der Anwendung und bei den Treibern keine oder nur geringfügige Änderungen vorgenommen werden. Damit sind die Protokollstandards innerhalb der SCSI-Norm auch Bestandteil der FCNormung. Die FC-Normen sind kein Schnellschuss eines großen Unternehmens der von einem Gremium aus befreundeten Firmen abgenickt wird. Beim FC wie schon bei SCSI gibt es keine dominante Firma in der Normungsarbeit. Die Mitglieder der ANSI-Gremien T10 (SCSI), T11 (FC) und T13 (ATA) treffen sich jeden Monat für eine Woche an einem anderen Ort in den USA. Zu ihrer Normungsarbeit gehören auch noch SSA (eingestellt), IPI und andere. Die anstehenden Themen werden alternierend im Zweimonatsrhythmus behandelt. Im Regelfall kommen 30 bis 50 Personen von etwa 20 Firmen zu diesen Treffen. Der Hauptteil der Gremiumsmitglieder ist in Fibre-Channel – Technische Daten Normenübersicht) und nach etwa fünf Jahren beim Einsatz in Produkten ist der FC jetzt ein stabiles Standardprodukt. An der Weiterentwicklung für höhere Übertragungsraten und der Ausweitung der allen drei Gremien tätig. Für die einschlägigen Firmen ist die Normierung also ein signifikanter Kostenfaktor aus Arbeitszeit (einschließlich interner Vor- und Nacharbeit) und Reisekosten. Dies wird jedoch www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Infiniband Die hohen Geschwindigkeiten bei der Datenübertragung zwischen Rechnerknoten, Rechner und Peripherie können bald nicht mehr mit Parallelverbindungen bewältigt werden. Daher wird auch dafür in Zukunft serielle Verbindungstechnik eingesetzt. Infiniband (früher SIO, noch früher NGIO) ist ein Vorschlag von Intel und weiteren Firmen für eine serielle Übertragungstechnik über kurze Strecken. Infiniband (IB) ist eine spezielle Chip-Lösung mit Host- (HCA), Target- (TCA) sowie Switching-Chips und soll für diese begrenzte Anwendung optimiert werden. Infiniband ist also kein Bus oder Netz für universelle Anwendungen. Längerfristig wird Infiniband in Server-Anwendungen den PCI-Parallel-Bus ersetzen. In der ersten Generation werden Steckkarten mit Infiniband-Schnittstellen benutzt. Für den Masseneinsatz wird später die Infiniband-Funktion direkt in die Peripherie-Chips auf der Basisplatine (Motherboard) integriert. Die Architektur von Infiniband nutzt Techniken von vielen erprobten Verbindungssystemen, wie beispielsweise Fibre Channel, Firewire, IBM-Großrechner (Sysplex 390, ESCON), Myrinet, Servernet (Tandem/Compaq) und VI. Für die Machbarkeitsstudien wurden Myrinet-Chips (ANSI/VITA 26-1998) eingesetzt. Die IB-Spezifikation wird von einigen ausgewählten Firmen (Compaq, Dell, HP, IBM, Microsoft, Sun) unter Anleitung von Intel erstellt. Für Infiniband werden auch Steckkarten entwickelt, die zu keinem bisherigen mechanischen Kartenformat kompatibel sind. Die weltweit etablierte Infrastruktur an Entwicklungs- und Produktionseinrichtungen und Fachwissen wird dagegen nicht genutzt. Infiniband-Daten sollen mit 2,5 GBit/s seriell übertragen werden. Das entspricht etwa 250 MByte/s. Es können mehrere Einzelstrecken (vier oder zwölf) parallel betrieben werden, um höhere Datenraten zu erhalten. Als Übertragungsmedien sind Kupferdraht derzeit bis etwa 17 m oder Glasfaser bis etwa 100 m vorgesehen. Eine Ablösung von Fibre Channel als Verbindungstechnik für SANs ist nicht zu erwarten. Der Fibre Channel wurde für eine viel umfangreichere Funktionalität und für erheblich längere Übertragungsstrecken entwickelt. als strategische Investition gesehen. An jeder FC-Norm arbeiten ein oder mehrere Personen als Protokollführer und ANSIAufsichtsperson (Chairperson) sowie Texteditor, leider manchmal mit unterschiedlichen Hilfsmitteln (etwa Framework, Wordperfect, Winword) mit unterschiedlichen Zeichnungsformaten aus dem CAD- oder Desktop-Bereich und unter verschiedenen Betriebssystemen. Die Übernahme der FC-PH-Normen FC-0 bis FC-3 in ein einheitliches, elektronisches Format und die Konsolidierung zu einem einheitlichen FC-3-Dokument, an der der Autor auch zeitweise mitgearbeitet hat, hat als eigenständiges Projekt neben der Normungsarbeit mehr als ein Jahr gedauert. An einem verabschiedeten ANSI-Dokument darf es keine Veränderungen geben. Daher müssen vor allem Zeichnungen oft gescannt und als Bild wieder an die gleiche Stelle im Text eingefügt werden. Die DIN-Organisation verzichtet dankenswerterweise seit einigen Jahren auf die früher übliche Zwangsübersetzung in die deutsche Sprache, zumindest bei Nor- 146 L AN line 12/2000 men für die Datenverarbeitung und Telekommunikation, soweit sie nicht hier im Original entstanden sind. Heute genügt ein nationales Vorwort mit einer Übersetzung der formalen Schlüsselbegriffe. Auf der ISO/IEC-Ebene wird fast nur noch in Englisch dokumentiert (Englisch, Französisch und Russisch sind die Amtssprachen). Russland hat schon zu Sowjetzeiten auf die Veröffentlichung in russisch verzichtet. Frankreich verzichtet neuerdings häufiger auf die französische Übersetzung. Trotz all dieser Arbeit im Hintergrund sind beispielsweise die SCSI- und FCNormen auf ANSI-Ebene immer vor oder mit den entsprechenden Produkten verabschiedet worden. Das gilt inzwischen auch für die ATA/ATAPI-Normen. Die beim Aufbau von SANs vermeintlich fehlenden Normen betreffen weder jetzt noch in Zukunft die FC-Normierung sondern die Verwaltung der unternehmensweiten Daten. Die dazu noch nötigen Normen sollten von der SNIA kommen oder in den relevanten Gremien angestoßen werden. Dort gibt es tatsächlich noch große Lücken. MARKTZAHLEN IDC erwartet weltweit für “Disk-Storage-Hardware”-Produkte ein Marktwachstum von 14,5 Prozent im Jahr von 30 Milliarden Dollar in 1999 auf 34,3 Milliarden Dollar im Jahr 2000. Die Marktforscher von IDC prognostizierten für den europäischen Speichermarkt in 1999 einen Umsatz von 8,4 Milliarden Dollar und 11,8 Milliarden Dollar im Jahr 2002. Die Gartner Group schätzt den europäischen Speichermarkt etwas höher ein mit 9,6 Milliarden Dollar in 1999 und 14,2 Milliarden Dollar in 2002. Die Speichermengen nehmen nach allgemein üblichen Schätzungen mit 60 bis 100 Prozent im Jahr zu. Bei dem üblichen Preisverfall sind die Umsatzzuwächse entsprechend geringer. Die Infrastruktur, also vorwiegend Fibre Channel, müsste noch stärker zunehmen, da diese großen Serielle Übertragungstechniken im Vergleich www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Abkürzungen American National Standards Institute ATA Advanced Technology Attachment ATM Asynchronous Transfer Mode CAD Computer-Aided Design C A G R Compound Annual Growth Rate DIN Deutsche Industrie-Norm EIA Electronic Industries Association EIDE Enhanced IDE E S C O N Enterprise System Connection FC Fibre Channel F C - A L FC-Arbitrated Loop F C - P H FC-Physical F C - S W FC-Switch FCIA Fibre Channel Industry Association GBE Gigabit Ethernet HBA Host Bus Adapter HCA Host Channel Adapter IB InfiniBand IDE Integrated Drive Electronics IEC International Electrotechnical Commission IEEE Institute of Electrical and Electronics Engineers IP Internet Protocol IPI Intelligent Peripheral Interface ISO International Organisation for Standardisation LAN Local Area Network N G I O Next Generation I/O QoS Quality of Service SAN Storage Area Network SCSI Small Computer System Interface SIO System I/O SNIA Storage Networking Industry Association SSA Serial Storage Architecture TCA Target Channel Adapter USB Universal Serial Bus VI Virtual Interface VITA VMEbus International Trade Association ANSI Speichermengen nicht mehr mit herkömmlichen Methoden anschließbar sind. Nach der Jahresversammlung der FCIA Ende September 2000 hat Dataquest die Schätzungen für den jährlichen Umsatzzuwachs (CAGR) mit FC-Switches von bisher 250 Prozent auf 300 Prozent erhöht. Nach dieser neuen Schätzung sollen im Jahre 2004 etwa 10 Millionen SwitchPorts und fünf Millionen FC-Schnittstel- 148 L AN line 12/2000 lenkarten (HBAs) verkauft werden. Die Umsätze mit Switches werden in 2004 auf fünf Milliarden Dollar und mit HBAs auf etwa 1,8 Milliarden Dollar geschätzt. Mit dieser guten Nachricht von Dataquest stiegen noch am gleichen Tag die Aktienkurse der betroffenen Firmen in den USA deutlich an. WEITERENTWICKLUNG Die nötigen Nor- men oder Normentwürfe für ein breites Einsatzgebiet des Fibre Channel sind ver- des beim FC, die in dieser Form bei den Ethernet-Varianten nicht gefordert wird. Dabei existieren Unterschiede bezüglich der Anforderungen. Ethernet rechnet damit, dass eine höhere Schicht im Fehlerfall eine Wiederholung der Übertragung anfordert. Der FC liefert eine gesicherte Übertragung durch seine eingebauten Fehlererkennungs- und -korrekturmechanismen. Die FCIA, als Förderorganisation mit mehr als 150 Mitgliedern, koordiniert die Die fünf Funktionsebenen des Fibre Channel. FC-0 bis FC-2 bilden die physikalische Schicht FC-PH. fügbar, davon einige in dritter Ausgabe. Jetzt, da die Speichermengen überproportional zunehmen, wird die FC-Übertragungstechnik auch tatsächlich benötigt. Die wichtigste Anwendung ist die für den Aufbau von Speichernetzwerken (SANs). Fast alle SANs werden auf Basis des FC eingerichtet und größere Unternehmen werden bald kaum noch ohne SANs arbeiten können. Die Weiterentwicklung zu 4 GBit/s oder 10 GBit/s wird derzeit untersucht. Es besteht die Möglichkeit, die für GBE-10 in Zukunft benötigten Chips auch für FC-10 einzusetzen. Bei der 1-GBit/s-Version der Chips wurde das schon einmal getan. Dazu muss die Rückwärtskompatibilität untersucht werden. Ein weiterer Unterschied zwischen FC und GBE ist die gesicherte Übertragungstechnik mit CRC-Co- Weiterentwicklung der FC-Technik. Sie initiert Normvorhaben, wenn nötig und organisiert technische Untersuchungen und Kompatibilitätsprüfungen. Die Interoperabilität von FC-Produkten in einem heterogenen SAN soll zukünftig durch das SANmark-Logo dokumentiert werden. (Hermann Strass/mw) Hermann Strass ist Berater für neue Technologien, insbesondere für Busarchitekturen, Massenspeicher und industrielle Netzwerke, Mitglied in nationalen und internationalen Normungsgremien, in der IEEE Computer Society sowie “Technical Coordinator” der VITA in Europa. Hermann Strass schreibt Bücher, Zeitschriftenartikel und organisiert Seminare. www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS THE FIBRE CHANNEL EVENT Europäische FCKonferenz in London Der Fibre Channel (FC) als Basis für die Infrastruktur von Speichernetzwerken (SANs) ist unumstritten. Durch die rasche Verbreitung der Speichernetzwerke steigt die Zahl der FC-Installationen um weit über 100 Prozent im Jahr. Mitte Oktober fand die diesjährige europäische FC-Konferenz mit Ausstellung in London statt. Vortragende waren die führenden Persönlichkeiten in diesem Industriesegment und eine große Zahl von Anwendern mit zum Teil sehr großen, heterogenen SAN-Installationen. Besonders interessant war auch die weltweit gleichzeitige Ankündigung von 10GFC (10 Gigabit Fibre Channel) am zweiten Tag der Konferenz. ie Konferenz und die so genannten Tutorials liefen parallel in verschiedenen Räumen. Die beiden Tutorial-Vortragsreihen wurden am zweiten Tag wiederholt, die Konferenzvorträge hingegen nicht. Paul Talbut der Chairman von FCA (Fibre Channel Association) Europe eröffnete die Konferenz. Dann gab es Vorträge von Marktforschern und Analysten sowie Berichte von Anwendern über den Einsatz des FC in SANs. Der zweite Tag D Messestand auf der FC-Konferenz in London 150 L AN line 12/2000 war der “USA-Tag” mit Vorträgen der Chairmen aus den Verbänden und Komitees und ebenfalls wieder mit Anwenderberichten. An beiden Tagen gab es auch Expertenrunden mit reger Publikumsbeteiligung zu Fragen des Einsatzes in der Praxis. Skip Jones, Chairman der FCIA (Fibre Channel Industry Association und Director of Planning and Technology bei Qlogic) berichtete über die Entwicklung des FC bis heute und über die Weiterentwicklung Quelle: Angel Business Communications (Roadmap). Die derzeitige Wachstumsrate beim FC beträgt nach Meinung von Skip Jones etwa 100 Prozent/Jahr. Bei einigen spezialisierten Firmen sind es bis zu 100 Prozent im Quartal. Inzwischen sind 85 Prozent der Installationen “live”-Anwendungen. Die FC-SANs laufen also nicht im Parallelbetrieb zur Erprobung, sondern sind voll im Einsatz für das Tagesgeschäft im 24-Stunden-Betrieb. Skip Jones erklärt die explosive Verbreitung der FC- und SANTechnik damit, dass die passende Technologie für den schnell wachsenden Markt zur richtigen Zeit zur Verfügung stand. NAS und SAN werden als sich ergänzende Techniken eingesetzt, nicht in Konkurrenz zueinander. Größere NAS-Installationen verwenden intern und für Backup ein SAN, das der Anwender auf dem LAN nicht wahrnimmt. Skip Jones wies auch darauf hin, dass es neben dem gerade angekündigten 10GFC eine 4GFC-Variante mit Kupferkabeltechnik vorwiegend für Anwendungen mit Festplatten geben wird. Die Datenraten der Festplattenlaufwerke sind allerdings noch sehr niedrig. Außerdem wäre die Glasfasertechnik für das Preisniveau bei Festplatten viel zu teuer. Beide Techniken sind zueinander kompatibel. Kumar Malavalli, Chairman des ANSIKomitees NCITS/T11 (Fibre Channel) und Mitbegründer und Vice President Technology von Brocade erläuterte die Unterschiede zwischen Ethernet und Fibre Channel. Die beiden Techniken sind für völlig verschiedene Anwendungsschwerpunkte entwickelt worden. Sie werden auch in Zukunft entsprechend eingesetzt und sich nicht gegenseitig ablösen. Der FC garantiert eine sichere Datenübertragung ohne großen Verwaltungsaufwand für große Datenmengen. So können mit dem FC bis zu 128 MByte an Daten ohne CPU-Belastung mit einem Paket übertragen werden. Dazu wird nur ein Interrupt benötigt. Im Ethernet können maximal 64 KByte in einem Paket übertragen werden. Im LAN werden eher sporadisch kleinere Mengen an Daten übertragen, daher die andere Optimierung beim Ethernet. Larry Krantz, Chairman im Board of Directors der SNIA (Storage Networking Industry Association) und Senior Technolo- www.lanline.de gist bei EMC erläuterte die Rolle der SNIA als Katalysator für die Entwicklung von Normen für die Speicherverwaltung. Die SNIA ist selbst kein Normungsgremium. Sie identifiziert die Lücken in der Standardisierung und fördert dann die Normierung. Die Zusammenarbeit mit anderen Normungsgremien wird ebenfalls gefördert, unter anderem durch die Übernahme oder Anpassung von bestehenden Normen aus anderen Gremien. Das sind beispielsweise SNMP, WBEM, CIM oder HTTP. Die Anwenderberichte kamen aus verschiedene Bereichen wie etwa Finanzinstitutionen, Medizindokumentation oder Internet-Anwendungsentwicklung. Sehr häufig war die mit herkömmlichen Methoden nicht mehr mögliche Datensicherung der Auslöser für den Einsatz eines SAN. Die Kostenreduktion durch Speicherkonsolidierung wirkt sich an mehreren Stellen aus. Überzählige Kapazitäten, die bisher fest an einen bestimmten Server gebunden waren, können jetzt unmittelbar genutzt werden. Durch die Konsolidierung wird die Anzahl der Dateiduplikate oder Mehrfachkopien fast ganz eliminiert. Das ergibt enorme Mengen an plötzlich frei werdenden Speicherkapazitäten, die nicht gekauft werden müssen. In manchen Unternehmen wird mehr als die Hälfte der Speicherkapazität für Mehrfachkopien und Dateileichen benötigt. Die Anwender berichten wenig über besondere technische Probleme beim physikalischen Aufbau der Speichernetze. Be- www.lanline.de L AN line 12/2000 151 SCHWERPUNKT: STORAGE AREA NETWORKS 10GFC Bob Sibley von Halifax, einem Finanzdienstleister, erläutert, warum mehrere SANs für die heterogene Umgebung aus OS/390, Unisys, NT, Unix und AS/400-Systemen mit 2,5 TByte Speicher eingerichtet wurden. Die Erweiterung auf 14 SANs zu je 84 Server ohne Änderung oder Ergänzung der Switch-Infrastruktur ist möglich. Quelle: Angel Business Communications Ltd klagt wird aber die große Vielfalt der heute noch notwendigen Bedienungs-Software. Fast für jedes Hardware-Produkt wird eine eigene Management-Software benötigt. Interessant war, dass in größeren Firmen die psychologischen Probleme am größten waren. Durch die Speicherkonsolidierung verkleinert sich der Herrschaftsbereich eines Managers. Er besitzt plötzlich kein Jahresbudget mehr für die Speichererweiterung in seiner Abteilung. Das wird dann zentral für das SAN erledigt. Zudem führt er auch nicht länger einen abteilungseigenen Speicher- oder Netzadministrator. Geschrumpftes Budget und geringere Mitarbeiterzahl bei den Abteilungsfürsten und die neuen Abgrenzungen in den Zuständigkeiten verhindern oft ganz oder für lange Zeit die Einführung beziehungsweise optimale Nutzung von FC-SANs. NORMUNG Im Zusammenhang mit SANs wird immer wieder die vermeintlich nicht vorhandene Normung beim Fibre Channel beklagt. In den Vorträgen insbesondere auch bei den Anwendern wurde dies nicht bestätigt. Die FC-Technik ist derzeit in über mehr als 20 ANSI-Normen für alle üblichen Anwendungen spezifiziert, zum Teil schon in der fünften Generation. Die fehlende Normung betrifft die Verwaltung großer Datenmengen in heterogenen, verteilten Datennetzen. Das wäre auch so, wenn eine andere Übertragungstechnik genutzt würde. In jüngster Zeit offenbarten 152 L AN line 12/2000 sich jedoch signifikante Fortschritte bei der Spezifikation von einheitlichen Methoden und Protokollen für die Verwaltung der Daten. PRODUKTE An den Ständen wurden be- kannte Produkte demonstiert. Es gab aus Anlass der Konferenz keine wirklichen Neuheiten. Die FCA Europe zeigte das verbandseigene mobile und sehr heterogene SAN. Diese SAN-Demoeinheit ist in zwei sehr großen Schränken für die verschiedenen Server, Hubs, Switches und Speichereinheiten untergebracht. Die Anlage ist in mehrere SANs mit Kupfer- und Glasfaserverbindungen in FC-Technik miteinander verbunden. Die FCA Europe wird diese beiden Schränke auch auf der CeBIT ausstellen. Fortschritte erkennen konnte der Besucher auch bei den neueren Verwaltungsprogrammen, die alle mehr oder weniger virtualisieren. Dazu gehören beispielsweise Sansymphony von Datacore oder Sanpoint von Veritas. Alle namhaften Firmen mit FC- oder SAN-Produkten waren selbst oder über ihre englischen Distributoren als Aussteller vertreten. (Hermann Strass/mw) Hinweis: Die nächste Konferenz “The Fibre Channel Event” wird vom 6. bis 7. Juni 2001 im MECC in Maastricht in den Niederlanden abgehalten. Weitere Informationen unter www.fibrechannelevent. com Auf der europäischen FC-Konferenz in London wurde am 18.10. 2000 weltweit gleichzeitig die 10-GBit/s-Version der Fibre-Channel-Technik angekündigt. Die Vorarbeiten dazu begannen im August 1999 im zuständigen ANSI-Komitee NCITS/T11. Weitere Einzelheiten dazu müssen in den nächsten Monaten noch spezifiziert werden. Das T11-Komitee tagt regelmäßig für eine Woche im Monat, wobei etwa ein bis drei Tage für die Fibre-Channel-Normierung reserviert sind. Wie heute üblich, wird der größte Teil der Arbeit jedoch über die E-Mail-Kommunikation erledigt. Die drei Industriegruppen für die Spezifizierung von FC, 10GBE (10 Gigabit Ethernet) und Infiniband werden die gleiche physikalische Technik einsetzen. Der Anwender muss also nur eine Kabelinfrastruktur installieren. 10GFC wird auch installierte “Dark Fiber”-Verbindungen nutzen können. Damit sind DWDM- oder Sonet/SDH-Strecken direkt verwendbar. Die neue Technik ist rückwärtskompatibel mit den 1-GBit/sund 2-GBit/s-Varianten des Fibre Channel, die heute im praktischen Einsatz sind. Die Vernetzungstechnik nach ISO/IEC 11801 wird ebenfalls unterstützt. Skip Jones, Chairman der FCIA, erläuterte auf der Konferenz in London, dass mit Produkten ab 2002 zu rechnen ist. Bis dahin sollte es mit den gegenwärtigen Datenraten beim Fibre Channel keine Probleme geben. Bei der 10GFC-Variante soll der zwölffache Datendurchsatz gegenüber einer 1-GBit-Variante erreicht werden. Beim Fibre Channel kann allgemein mit etwa 95 Prozent oder mehr an Nutzdatenrate gerechnet werden. Beim Fibre Channel ist die 1-GBit/sÜbertragung schon sehr weit verbreitet. Derzeit geht etwa zwei Drittel der Produktion an Gigabit-Chips (Transmitter, Receiver, Transceiver) in FC-Anwendungen und ein Drittel in GBE-Anwendungen. Das Komitee für die Normung von GBE (Gigabit Ethernet) hatte die damals bereits für den Fibre Channel verfügbaren Übertragungschips in die GBE-Spezifikation übernommen. GBE-Produkte nutzen also die Preisvorteile aus den großen Stückzahlen beim Fibre Channel. Die jetzt vorgestellte 10GFC-Technik und der derezeit in Arbeit befindliche Normentwurf für 10GBE werden gemeinsam spezifiziert. Die Unterschiede liegen dann wie jetzt auch, im Protokoll, nach dem die Daten übertragen werden. (Hermann Strass/mw) www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS EFFIZIENTERES MANAGEMENT Virtualisierung macht SANs offener Die Vorteile eines SAN (Storage Area Network) sind unbestritten. Höhere Durchsatzraten, eine flexiblere Verkabelung mit größeren Reichweiten und eine erweiterte Adressierung mit der Fibre-Channel-Technologie sorgen dafür, dass immer mehr Speichersysteme unabhängig von den Servern installiert werden. esonders Backup-/Recovery-Applikationen schreien aufgrund der riesigen zu sichernden Datenmengen nach den Vorteilen der neuen SAN-Infrastruktur. Die LANfree-Backup-Datensicherung verlagert den Datenverkehr vom LAN ins SAN und beschleunigt den Sicherungsprozess deutlich beziehungsweise macht diesen weiterhin überhaupt noch möglich. Die Giga Group spricht bei LANfree Backup von der ersten “SAN-Killer Applikation”. Auch die Gartner Group stuft deshalb die Bedeutung von SANs mit Bandlaufwerken (Tape Drives) und Bandbibliotheken (Automated Tape Libraries) für Datensicherungen derzeit für Kunden höher ein als Disk-basierte SAN-Lösungen. B Trotz steigender Zahl von SAN-Projekten ist auch eine allgemeine Kritik nicht zu überhören. Sie besteht hauptsächlich darin, dass Managementwerkzeuge für den Einsatz in einer heterogenen Speicherinfrastruktur fehlen und ihre Entwicklung zu lange auf sich warten lässt. Einer der großen Vorteile des SAN ist die Senkung der Managementkosten in der Speicherumgebung. Dies lässt sich aber nur verwirklichen, wenn die Unternehmen in der Lage sind, mit intelligenten Techniken die gesamte heterogene Server- und Speicherlandschaft einzubinden und gleichzeitig einen einheitlichen Blick auf die Ressourcen zu gewinnen. Bei diesem Ziel spielt die neue zukunftsträchtige Technik der Virtualisierung die entscheidende Rolle. Mit Virtualisierung wird ein SAN flexibler, intelligenter und vor allem offener aufgebaut und verwaltet. Heutige SANs sind in der Tat vielfach homogen aufgebaut. Verschiedene Server, Applikationen und Speichersysteme setzen auf eigenen SAN- und Storage-Management-Werkzeugen auf, die untereinander nicht kompatibel sind und nicht die gleichen Ressourcen verwalten können. Jede SAN-Applikation nutzt ihren eigenen Storage-Pool. Weitere Management- und Kostenvorteile ergeben sich aber erst durch die Implementierung einer gemeinsam nutzbaren Speicherinfrastruktur. Der Kunde bräuchte anstelle von mehreren Disk oder Tape-Pools nur noch einen ver- walten und könnte durch weiteres Ressoucen-Sharing die Anzahl der benötigten Speichersysteme minimieren. Mit Hilfe von Enterprise-SAN-Lösungen, basierend auf virtuellen Techniken, können diese Vorteile nun erzielt werden. ENTERPRISE SAN UND VIRTUALISIERUNG Storagetek versteht unter Enterpri- se SAN eine hochleistungsfähige und intelligente Infrastruktur für Any-to-AnyVerbindungen zwischen heterogenen Servern, Applikationen und Disk- und TapeSpeichersystemen. Über die gleiche Infrastruktur werden sowohl Open-SystemsServer mit Fibre Channel als auch Mainframes mit Escon-Schnittstellen unterstützt. Virtualisierung ist eine Technik, die der Server-Applikation und der Storage-Management-Software einen logischen (virtuellen) Blick auf die Speicherressourcen im SAN ermöglicht. Dies ist die Grundlage für Offenheit, Skalierbarkeit und Verfügbarkeit. Die logischen oder virtuellen Laufwerke verweisen dynamisch auf physikalische (reale) Laufwerke und erlauben eine flexible Erweiterung der gesamten SAN-Umgebung. Das SAN wird erweitert, ohne dass die Server aufwändig umkonfiguriert werden. Intelligente Funktionen innerhalb der Virtual-SAN-Services kontrollieren den geordneten Zugriff auf die Ressourcen und garantieren ständig die Datenintegrität. SAN-MANAGEMENT 154 L AN line 12/2000 SAN-basierendes heterogenes Tape-Drive-Pooling www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Diese Technik ist nicht gänzlich neu, sondern wird schon seit Jahren im Mainframe-Bereich erfolgreich eingesetzt. Storagetek ist hier mit dem VSM (Virtual-Storage-Manager) und dem SVADisk-System (Shared Virtual Array) seit langem ein Vorreiter der virtuellen Technik. Nun steht diese Technik der Virtualisierung auch für das SAN-Management zur Verfügung. gert. Bei Störungen von Speichersystemen werden aufgrund des dynamischen Mappings den Servern automatisch andere Laufwerke aus dem Pool bereitgestellt. – Investitionsschutz: Virtuelle und physikalische Laufwerke können von unterschiedlichem Typ sein. Dies erlaubt die sinken die Administrations- und die Managementkosten des Storage Area Networks. Storagetek hat im November 1998 seine Vista-Architektur zum Aufbau von offenen, intelligenten und integrierten Speicherlösungen vorgestellt. Vista steht für Virtual Intelligent Storage Architecture VORTEILE DER VIRTUELLEN TECHNIK Die Vorteile der virtuellen Technik sollen anhand der nachfolgend beschriebenen Anwendung des heterogenen Tape-DrivePoolings über das SAN verdeutlicht werden. Hier sind unterschiedliche ServerGruppen mit jeweils eigenen Backupoder HSM-Applikationen mittels Fibre Channel über ein intelligentes Enterprise SAN-System an eine Tape-Library angeschlossen. Die Bandlaufwerke der Library sind nicht mehr länger dediziert den einzelnen Servern zugeordnet, sondern stehen allen zur Verfügung. Im intelligenten SAN-System werden den Server-Applikationen virtuelle Bandlaufwerke bereitgestellt, die dynamisch auf geeignete freie physikalische Laufwerke in der Tape-Library verweisen. Die Vorteile der virtuellen SAN-Lösung gegenüber den bisherigen Möglichkeiten umfasst auch die folgenden Punkte: – Speicherkonsolidierung und zentrales Management: Eine große Anzahl von heterogenen Servern mit verschiedenen Applikationen nutzt einen gemeinsamen Storage-Pool. Ein einfaches zentrales Management wird bereitgestellt. Der Kunde benötigt weniger Laufwerke als bei isolierten applikationsbezogenen Speicher-Pools und senkt die Kosten der Hardware-Investitionen. – Völlige Transparenz für Anwendungen: Die Lösung stellt sich für die Server und Applikationen völlig transparent dar. Keine Änderungen und Anpassungen der Server sind bei der Implementierung und bei einer nachträglichen Erweiterung der Speicherinfrastruktur mehr notwendig. – Steigerung der Ausfallsicherheit: Die Ausfallsicherheit wird erheblich gestei- 156 L AN line 12/2000 Die Vista-Architektur im Enterprise SAN gemeinsame Nutzung einer bevorzugten Speichertechnologie über das gesamte Unternehmen hinweg, auch wenn bestimmte Server hierfür überhaupt keine Treiber oder andere Software aufweisen. Die virtuellen Techniken ermöglichen über die EnterpriseSAN-Plattform auch die Integration und Unterstützung von Escon-Schnittstellen für Großrechner. Open-Systems-Server, die nicht über diese Zugriffsmethoden verfügen, sind somit in der Lage, dennoch diese Speicherressourcen zu nutzen. Umgekehrt erhalten Großrechner Zugriff auf über Fibre Channel angeschlossene Speichersysteme. Die Investitionen des Anwenders werden verstärkt und langfristig geschützt. Alle genannten Vorteile führen zu einem verbesserten und effizienteren Management im SAN. Die Flexibilität der SAN-Implementierung und die Skalierbarkeit der Infrastruktur steigen bei maximalem Investitionsschutz. Gleichzeitig und beschreibt gemäß den SNIA-Empfehlungen ein Sechsschichtenmodell zum Aufbau von offenen Speicherlösungen. Virtualisierung und Intelligenz sind die beiden wichtigsten Kernelemente und deshalb schon im Namen der Architektur Vista fest verankert. Die Intelligenz in Storageteks Vista-Architektur befindet sich im SAN. Hier garantiert die Virtualisierung die Offenheit für Server und Speichersysteme. Der Kunde wählt seine bevorzugten Komponenten zum Aufbau eines unternehmensweiten Speichernetzwerks. Er ist nun in der Lage, ein wirkliches Enterprise SAN über sein gesamtes Unternehmen zu implementieren. Die ersten Lösungen, basierend auf Virtualisierung, stehen zur Verfügung. Der sich rasant entwickelnde Speichermarkt wird weitere Anforderungen definieren und kurzfristig deren Verfügbarkeit fordern. (Frank Bunn/mw) Frank Bunn ist Product Marketing Manager für SAN-Lösungen bei Storagetek) www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS INTEGRIERTE SPEICHERLÖSUNGEN Technologische Betrachtung von SANs Die zur Zeit alles beherrschende Strategie ist die Integration eines Netzwerkmodells in die Speicherumgebungen. Dieses ”Storage Area Network” (SAN) bildet die Grundlage für den Aufbau stabiler und skalierbarer Speicherumgebungen, die den Anforderungen an Verfügbarkeit und Performance heutiger Systemumgebungen entsprechen können. Als Standardtechnologie für die Realisierung der Verbindungen der Speichereinheiten soll Fibre Channel (FC) für die Kommunikation von Servern und Speichereinheiten bevorzugt optimiert werden. ür die Beschreibung der Konzepte und Möglichkeiten von Speichernetzwerken wird eine eigenständige Terminologie verwendet, die ursprünglich mehr Verwirrung als Klarheit erzeugte. Die Begriffe NAS (Network Attached Storage) und SAN (Storage Area Networks) sind als unterschiedliche Annäherungen an das Thema Speichernetzwerke zu betrachten. Mit NAS wird eine Technologie beschrieben, bei der integrierte Speichersysteme an ein Kommunikationsnetzwerk angeschlossen sind, zum Beispiel auf der TCP/IP-Protokollbasis. NAS-Produkte arbeiten als Server in einer Client-/Server-Beziehung und arbeiten Datei-I/O-Protokolle wie NFS ab, um den Datentransfer mit den Clients zu realisieren. Sie sind im Wesentlichen Disk-Arrays, die um ein Mikro-Kernel-Betriebssystem organisiert sind, das für Speicheroperationen und NetzwerkFilesystem-Emulationen optimiert ist. NAS-Komponenten werden direkt in das Netzwerk installiert, in der Regel “Plugand-Play”. Der Begriff SAN beschreibt eine Technologie, die den direkten Anschluss von Speichereinheiten an eine gemeinsame Netzwerkstruktur unterstützt. SAN-Produkte agieren nicht als Server. Sie verarbeiten primär Block-I/O-Protokolle wie SCSI für andere Systeme, beispielsweise F 158 L AN line 12/2000 zwischen Server und Speichereinheit. Der Begriff SAN impliziert ein dediziertes Netzwerk, das als I/O-Kanal zwischen Servern und Speichereinheiten dient. Ein SAN beschränkt sich allerdings nicht ausschließlich auf Block-I/O-Protokolle, sondern kann je nach Design auch dateiorientierte Speicherprodukte, zum Beispiel NAS-Produkte, beinhalten. Hersteller und Analysten sind sich darüber einig, dass die Entwicklung zum Open Storage Area Network ein nicht aufzuhaltender Trend im IT-Business ist. Am Ende des Entwicklungsprozesses werden SANs stehen, die Hochgeschwindigkeitsverbindungen zwischen allen Server-Plattformen, unabhängig vom jeweiligen Betriebssystem und allen Speicher-Ressourcen, realisieren können und als “Virtual Storage Pools” kontrollierten Zugriff auf Applikationen und Benutzerdaten erlauben. Der Einsatz von Fibre Channel bedeutet für das IT-Personal die Notwendigkeit, weiteres Know-how aufzubauen und erfordert zusätzliche oder neuartige Verkabelungsstrukturen sowie zusätzliche Netzwerkkomponenten. Darüber hinaus muss ein zweites Netzwerk – typischerweise Gigabit Ethernet – für das Out-of-BandManagement der Knoten eingerichtet werden. Fibre Channel bietet noch keine InBand-Management-Möglichkeiten, die für andere Netze und Verbindungsprotokolle ebenso zur Verfügung stehen. Auch wenn sich IT-Manager darum bemühen, die Vielfalt der eingesetzten Protokolle in ihren Infrastrukturen zu reduzieren, bleibt ihnen hier jedoch nichts anderes übrig als sich mit der neuen Technologie auseinander zusetzen. Um wirkungsvolle Speicher-Designs zu realisieren, muss man die Protokollstruktur verstehen und die wesentlichen Eigenschaften mit bestehenden LAN-Protokollen vergleichen können. Alle SAN-Netzwerkkomponenten lassen sich prinzipiell dazu verwenden, be- NAS-Komponenten werden direkt in das Netzwerk installiert www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS kannte Netzwerkarchitekturen zu realisieren, von einfachsten lokalen Strukturen bis hin zu komplexen hierarchischen Designs. Die wesentlichen Eigenschaften von Storage-Netzwerken sind einerseits durch die zugrundeliegende Netzwerktechnologie und zum anderen durch die realisierten Speicherfunktionen beziehungsweise Applikationen bestimmt, beispielsweise Shared Storage, Datenspiegelung, Storage Pooling, Remote Storage, Backup, Disaster Recovery, Datenreplikation oder Daten-Volume-Management. Während Fibre Channel als potenzielles SAN-Netzwerkmedium entdeckt wurde, ist es eigentlich immer noch zu früh, Fibre Channel oder irgendein anderes Protokoll als De-facto-Standard zu bezeichnen. Fibre Channel, ein robustes serielles Interface mit einer nominellen Datentransferrate von 1 GBit/s, ist als ideales Verbindungselement für SAN erkoren worden. Obwohl Fibre Channel und SAN-Architekturen die www.lanline.de allgemeine Aufmerksamkeit nahezu zur gleichen Zeit auf sich zogen, sind beide Technologien weder synonym noch untrennbar. Tatsächlich kann im Prinzip jedes Netzwerk-Interface, das mit ausreichenden I/O-Transferraten arbeitet – von Gigabit Ethernet, ATM oder Sonet bis hin zu HIPPI – als adäquates Verbindungsmedium dienen. Zur Unterscheidung der wesentlichen Merkmale der verwendeten Netzwerktechnologie muss man sich vor Augen halten, dass sich die Anforderungen, die an Synergy Consult Synergy Consult, Wiesbaden, ist in der IT- und Telekommunikation beratend tätig. Der Fokus liegt auf der herstellerunabhängigen und kundenindividuellen Beratung. Weitere Informationen finden sich unter www.synergy-consult.de. Speichersysteme gestellt werden, von Anforderungen an Client-/Server-Systeme grundlegend unterscheiden. Bei IP-Netzwerken, beispielsweise auf Ethernet, liegt die Kontrolle für gesicherte Kommunikationen in der Transportschicht auf einer Software-Ebene. Im Gegensatz dazu realisiert der “FC ANSI X3 physical and signaling Standard” die gesicherte Datenübertragung. In FC-Komponenten wie HostBus-Adapter – HBAs, Switches und Hubs wird der Verlust von Rahmen bei der Übertragung nicht toleriert. Im FC wird eine kontrollierte Umgebung für unterbrechungsfreien Datenzugriff realisiert, die auf Kontrollmechanismen wie Fehlererkennung optimiert ist und auf HardwareEbene und nicht durch höhere Protokollschichten wie beispielsweise in IP verwaltet werden. Die kleinsten Einheiten im FC sind Frames mit einer Größe von 2112 Byte. Es sind Hardware-basierende Vorkehrungen L AN line 12/2000 159 SCHWERPUNKT: STORAGE AREA NETWORKS Der Begriff SAN impliziert ein dediziertes Netzwerk, das als I/O-Kanal zwischen Servern und Speichereinheiten fungiert im FC-Standard enthalten, die es ermöglichen, bis zu 65536 Frames in einer Sequenz zu verknüpfen. Der Aspekt des Sequencing ermöglicht Blocktransfers bis zu 128 MByte/s. Sequenzen ähneln den Paketen im Netzwerk. Fehlererkennung und -behebung sind im FC Funktionen der Hardware beziehungsweise Firmware. An der Eignung des FC-Protokolls besteht kein wirklicher Zweifel. Betrachtet man allerdings die Trends in der Entwicklung der Speichertechnologie und vergleicht sie mit den Entwicklungen in der Technologie für Corporate Networks, bleibt die Frage, wieso ein neues Transportprotokoll eingeführt werden muss. So gibt es doch Lösungsmöglichkeiten auf der Basis vertrauter Ethernet/IP-Netzwerke. Es ist daher keine Überraschung, dass verschiedene Hersteller dabei sind, GigabitEthernet-basierende SAN-Unterstützung in ihren Switches zu implementieren. WER PLANT UND ADMINISTRIERT DAS SAN? Inzwischen hat sich das Thema SAN zu den meisten Verantwortlichen einen 160 L AN line 12/2000 Weg gebahnt, zumindest zu all jenen, die sich mit einer Speicherproblematik konfrontiert sehen. Dass noch Schwierigkeiten bestehen, die Technologie einzuordnen, zeigt sich interessanterweise auch bei der Zuweisung der Verantwortlichkeiten innerhalb größerer Organisationen. Ist SAN ein Netzwerkthema oder eine Aufgabe für die Server-Administration? Die Unsicherheit bei der Integration der Themen in bestehende Organisationsstrukturen zeigt, wie weit die angekündigte Technologie von ihrem selbstbestimmten Ziel, dem “Open SAN” noch entfernt ist und dass die strikte Trennung von Netzwerkern und Server-Administratoren als IT-Organisationsform nicht erst jetzt überdacht werden muss. Die Verwirklichung des Open SAN erfordert noch einige Arbeit. Die Storage Network Industry Association (SNIA) und viele Analysten rechnen mit einem Zeitraum von fünf bis zehn Jahren. Hier liegt das Dilemma heutiger IT-Manager. In vielen Unternehmen wächst das Datenvolumen jährlich um nahezu 100 Prozent. Her- kömmliche Verfahren der Speichererweiterung (Implementierung neuer Server mit angeschlossenen Speichereinheiten, Installation von Stand-alone RAID- oder JBOD-Einheiten [just a bunch of disks] etc.) stellen nur kurzfristige und teure Lösungen für das Speicherproblem dar. Darüber hinaus nimmt die Komplexität der Systemumgebung zu und erhöht die Gesamtkosten für die Verwaltung des Systems. Sicher gibt es viele Produkte auf dem heutigen Markt, die von ihren Herstellern als Storage Area Networks angeboten werden. Manche davon sind schlicht “shared arrays”, die zu SANs “umgestaltet” wurden, um aus der Popularität des SAN-Konzepts Kapital schlagen zu können. In anderen Fällen besitzen die Produkte einige SAN-ähnliche Eigenschaften, sind aber signifikant eingeschränkt: In so genannten homogenen SANs kann nur ein Betriebssystem eingesetzt werden, oder es können nur Komponenten bestimmter Hersteller verwendet werden, was letztendlich auf eine proprietäre SAN-Lösung hinausläuft. Wieder andere Hersteller nennen ihr Produkt “SAN-ready”, wenn man es an einen Fibre-Channel-Loop oder eine Switch-Fabric anschließen kann. SAN VERSUS NAS Die momentane Situa- tion stellt die verantwortlichen IT-Manager vor eine schwierige Entscheidung. Die Notwendigkeit die Kosten für die Datenverwaltung zu reduzieren und gleichzeitig höheren Anforderungen an Performanz und Management zu genügen, ist derzeit eines der dringendsten Probleme. Wie kann man heute den Speicheranforderungen gerecht werden, ohne auf teure Upgrades in der Zukunft aufzulaufen? Die Kunden sitzen in der Zwickmühle – sie müssen ihre speicherrelevanten Probleme ertragen und gleichzeitig darauf warten, dass sich das Potenzial der SAN-Technologie vollständig entfaltet hat. Diejenigen, die nicht warten können, sind gezwungen, heute verfügbare Lösungen einzukaufen und alle Nachteile einer nicht vollständig entwickelten Technologie in Kauf zu nehmen. Hierbei entsteht im Vorfeld der Entscheidungsphase Beratungsbe- www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS darf, der den Anforderungen an die Marktund Entwicklungssituation gerecht werden muss. Ungeachtet des vorherrschenden Optimismus hinsichtlich der zukünftigen Entwicklung der Speichertechnologien müssen bestehende Probleme heute gelöst werden. Ein Weg, den manche gehen, besteht im Einsatz von Network-Attached-Storage-(NAS-)Lösungen. NAS-Produkte haben ihre technologischen Stärken genau dort, wo heutige SANs noch Schwächen zeigen – sie nutzen die Vorteile der Ethernet-Netze und können über In-Bound-Management mittels SNMP überwacht werden. Das Fehlen des In-Bound-Managements bei SANs wurde von der SNIA als entscheidender Aspekt im Ringen um die Akzeptanz der FibreChannel-Technologie benannt. NAS und SAN stellen auch unterschiedliche Ansätze hinsichtlich ihrer Netzwerkarchitektur dar. Strategisch baut NAS auf www.lanline.de ein dezentrales Speicherkonzept, während ein SAN ein zentralisierter Ansatz ist. NAS-Komponenten zeigen sich dann nachteilig, wenn der Zugriff auf die Speicher-Ressourcen über die lokalen Subnetzgrenzen hinweg erfolgt. Bei der Empfindlichkeit des I/O-Datenstroms gegenüber Latenzzeiten werden besondere QoS(Quality of Service-)Garantien benötigt, um NAS-Datentransfers in einer solchen Situation zu gewährleisten. Je größer die Zahl der I/O-Requests über die Netzgrenzen hinaus ist, desto mehr Bandbreite wird im produktiven LAN benötigt, was andere Applikationen einschränken kann. Dieses ist ein Aspekt, der von einem SAN überwunden wird. SAN-Lösungen limitieren den Einfluss der I/O-Operationen auf das LAN, da die Speicher-Ressourcen in einem separaten Netzwerk organisiert werden. NAS ist eine kurzfristige Lösung für bestimmte Speicherprobleme mit potenziell langfristigen Konsequenzen. Jeder, der NAS-Technologien einsetzt, richtet sich eine zunehmend dezentrale Infrastruktur seiner Speicher ein und erhöht damit die Kosten des Systemmanagements. Auf der anderen Seite zeigt NAS die Vorteile der Netzwerkspeicherlösungen auf, die bekannte Protokolle (IP etc.) einsetzt. Die nächsten Jahre werden sicherlich einige Mischungen unterschiedlicher Speicherkonfigurationen und -topologien in den IT-Infrastrukturen zeigen. Für jeden verantwortlichen Planer wird es darauf ankommen, eine Lösung seiner individuellen Speicheranforderungen zu erarbeiten, die im derzeitigen Entwicklungsstadium sowohl dem Bedarf entspricht als auch den zukünftigen Technologien die Möglichkeit zur Integration bietet. Die Herausforderung des Speichermanagements wird in erster Linie der Umgang mit der Vielfalt der Protokolle, der Verbindungen und der Schnittstellen für den Zugriff auf die Speicher-Ressourcen sein. Nicht je- L AN line 12/2000 161 SCHWERPUNKT: STORAGE AREA NETWORKS des Speicherproblem erfordert ein SAN, allerdings ist mit den SANs eine strategische Technologie verbunden, die es erlauben wird, Speicher-Ressourcen effizienter zu nutzen. Jede Entscheidung erfordert es heute, die notwendigen Schritte einzuleiten, die der strategischen Bedeutung der Technologie Rechnung tragen, und Komponenten und Konzepte zu wählen, die sich für die Verwendung eines zentral verwalteten SANs anbieten. In dieser Situation benötigen Entscheider Lösungen, die ren Speichernetzen steht derzeit oft der konkrete Bedarf an Backup-Lösungen und Hochverfügbarkeitssystemen. Das beschränkt sich keinesfalls auf die vielzitierten Bereiche Internet und E-Commerce. Die herkömmlichen Datensicherungsstrategien erfordern mit wachsenden Datenmengen einen immer höheren Aufwand. Wer es heute noch schafft, seine Datenbestände zu sichern, hält meistens bei der Frage nach dem Aufwand für die Systemwiederherstellung im Disaster-Fall die Fibre Channel über ein ATM-WAN zählt heute zu den State-of-the-art-Lösungen Speicherprodukte einsetzen, welche sowohl die bestehenden Probleme lösen als auch den kommenden Speicheranforderungen entsprechen können. Dabei müssen die Produkte die Flexibilität aufweisen, sich in die sich noch entwickelnden SAN-Architekturen eingliedern zu lassen, unabhängig davon, welches Netzwerkprotokoll sich letztlich durchsetzen wird. SAN-/NAS-DESIGNS Der derzeit unausgereifte Entwicklungsstand der SAN-Technologie führt dazu, dass Designs für Speicherlösungen im Wesentlichen von strategischen Aspekten bestimmt werden. Der Einstieg in diese Technologie wird hierbei vorrangig von den akuten Speicherproblemen gesteuert. Hinter den Anforderungen nach effizient verwaltbaren und skalierba- 162 L AN line 12/2000 Luft an. Für manches Disaster-RecoveryManagement kommen die angebotenen Lösungen fast schon zu spät. In vielen Fällen kann auf das Erreichen des Open SANs nicht gewartet werden. Damit hängen die notwendigen Designs heute noch von den spezifischen Problemen der einzelnen Systemumgebungen und strategischen Perspektiven ab. Interoperabilität versprechen Hersteller nur innerhalb ihrer eigenen Lösungen und die Kompatibilität zu künftigen Standards kann nicht garantiert werden. Somit werden Speicherlösungen in den kommenden Jahren nicht allein Mischungen aus NAS- und SAN-Produkten sein, sondern spezifische problem- und systemorientierte Designs aufweisen, die in Ermangelung allgemeiner Designrichtlinien immer proprietären Charakter haben wer- den. Neben den etablierten Playern wie EMC und Hitachi, IBM, HP, Compaq oder Dell sind auch Initiativen ins Leben gerufen worden von Herstellern wie Cisco, Foundry, Amdahl, Legato, Network Appliance und Veritas, die sich an der Entwicklung einer offenen Speichernetzarchitektur beteiligen. Nicht alle Gruppierungen ziehen erwartungsgemäß am selben Strang. Die OSN (Open Storage Networking) bietet alternative Wege zu EMCs Fibre Channel Alliance und Compaqs ENSA, oder der IBTA (Infiniband Trade Association) einem Zusammenschluss von Compaq, Dell, HP, IBM, Microsoft und Sun an. Für die OSN geht es beispielsweise um den Einsatz von bestehenden Standards aus dem GigabitEthernet-Umfeld zur Anbindung von Speicherkomponenten. Durch den Einsatz von Technologien wie Fibre Channel, Gigabit Ethernet, ATM und DWDM (Dense Wavelength Division Multiplexing) sollen integrale Lösungen für jedes Netzwerkdesign (LAN, MAN, WAN) geschaffen werden. Um das eigentliche Ziel zu erreichen, sind viele Aktivitäten zu erkennen, wodurch die Transparenz nicht unbedingt erhöht wird. Technologien für die Lösung bestehender Speicherprobleme sind verfügbar. Wie die Migrationswege zu den kommenden Standards zu definieren sind, hängt von den jeweils akzeptierten Lösungen ab. Beratungsunternehmen, die sich heute diesem Markt verschreiben, sind wie immer in solchen Situationen dann wertvolle Partner, wenn sie sich herstellerunabhängig und kompetent präsentieren und damit in der Lage sind, die notwendigen Designs an die schwierige Situation ihrer Kunden und deren strategische Ziele anzupassen. So kann man sich auch getrost der noch spärlichen Literatur zu diesem Thema widmen und Designvarianten studieren, um sich mit den allgemeinen Grundlagen zu beschäftigen – die eigentlichen Problemlösungen bleiben derzeit planungs- und beratungsintensiv. (Christoph Gossel, Senior Consultant und Thomas Kohl, Geschäftsführer Synergy Consult/mw) www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS OPTIMALE SAN-CONNECTIVITY FC-Directoren oder FC-Switches? Die Vorteile eines SANs können erst mit dem Fibre Channel richtig genutzt werden. Für den Aufbau einer hochverfügbaren, skalierbaren SAN-Fabric auf Fibre-Channel-Basis gibt es zwei Möglichkeiten: Fibre Channel Directoren und Fibre Channel Switches. Directoren sind im Prinzip Switches mit hoher Port-Kapazität und umfangreichen Hochverfügbarkeits-Features wie sie beispielsweise auch für eine MainframeUmgebung gefordert werden (Fehlertoleranz, ohne Single Point of Failure). Die zweite Möglichkeit sind mehrere vermaschte, miteinander zu einer Fabric verbundene Switches. ie Entscheidung, welche Lösung im jeweiligen Fall die Beste ist, hängt ab von den finanziellen Risiken, die ein Ausfall verursachen kann, eventuellen Service Level Agreements (SLAs), der geforderten Skalierbarkeit und der Anzahl der erforderlichen Device-Anschlüsse. Die Skalierbarkeit ist entscheidend dafür, in wieweit die SAN Fabric unter Wahrung der bestehenden Investitionen erweitert werden kann. Fibre Channel Directoren können zur Zeit von acht auf bis zu 64 Ports ausgebaut werden und haben eine Latenzzeit von weniger als 0,6 µs. D Fibre Channel Switches hingegen gibt es derzeit nur in 8- und 16-Port-Konfigurationen. Um mit Switches dieselbe hohe Anzahl von hochverfügbaren, nonblocking Ports wie bei einem Director mit 64 Ports zu erzielen, müssen mindestens neun 16-Port-Switches miteinander verbunden werden, wobei jeweils acht Ports für die Verbindung (Inter Switch Link Ports, ISL) benötigt werden. Damit steht aber nicht die volle Bandbreite zwischen den Switches zur Verfügung. Um nun dieselbe geringe Latenzzeit und denselben Durchsatz zu erreichen, sind ins- Hochverfügbares SAN mit Fibre Channel Directoren 164 L AN line 12/2000 gesamt zwölf 16-Port-Switches erforderlich. Vier weitere Switches werden nämlich als Interconnect-Switches zwischen den anderen acht Switches benötigt. Bei bis zu 32 Ports gibt es hinsichtlich der Skalierbarkeit also keine großen Unterschiede zwischen Fibre Channel Switches und Directoren. Bei mehr als 32 Ports jedoch wird durch die steigende Anzahl der Switches das Management der Switches zunehmend komplizierter, während bei Fibre Channel Directoren auch mit steigender Port-Anzahl nur ein Gerät gemanagt werden muss. Die Komplexitätsbetrachtung ist wichtig, um den Arbeitsaufwand für Installation, Management und Troubleshooting im Vorfeld abwägen zu können. Angesichts des Fachkräftemangels darf dieser Aspekt keineswegs unterschätzt werden. Bei Fibre Channel Directoren muss nur ein einziges System installiert, konfiguriert und gemanagt werden. Selbst wenn mehrere Geräte miteinander zu einer Fabric verbunden werden, erscheint die gesamte Fabric wie ein einzelnes Gerät. Die Port-Anzahl kann ganz einfach durch Installation weiterer Port-Module bei laufendem Betrieb erhöht werden. Fibre Channel Switches können ebenfalls wie eine einzelne Fabric installiert, konfiguriert und gemanagt werden. Um jedoch dieselbe Port-Anzahl zu erreichen, ist eine erheblich höhere Anzahl von Geräten notwendig. Bei Switches ist es extrem wichtig, eine spätere Erweiterung bereits bei der Planung zu berücksichtigen, an- Hochverfügbares SAN mit Fibre Channel Switches www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS dernfalls muss unter Umständen das gesamte System für eine Erweiterung heruntergefahren werden. Die Investitionskosten sind immer ein wichtiger Faktor. Dabei müssen nicht nur die Anschaffungskosten wie Kaufpreis und Installationskosten sondern insbesondere auch die laufenden Kosten für Wartung, Erweiterungen, Änderungen, Troubleshooting sowie die Personalkosten für diese laufenden Arbeiten betrachtet werden. Die Anschaffungskosten sind bei Switch Fabrics klar niedriger als bei Directoren. Bei den laufenden Investitionskosten und Personalkosten haben jedoch die Directoren die Nase vorn. Mit zunehmender Komplexität der Umgebung und wachsender Port-Anzahl steigt dieser Unterschied bei den laufenden Kosten zugunsten der Directoren überproportional an. Die Verbindungsqualität (Quality of Connection, QoC) wurde von der Strategic Research Corporation eingeführt, um zu bestimmen, wie die SAN-Topologie sowohl unter normalen als auch unter widrigen Bedingungen arbeitet und inwieweit die Bandbreite bei steigender Anzahl der Verbindungen skalierbar ist. Die QoC basiert auf der Quality of Service und überträgt praktisch deren Grundsätze analog auf die SAN-Netzwerkstruktur. Für die Bewertung der QoC werden neben den unterschiedlichen Architekturen, den möglichen Gründen für Ausfälle und Performance-Einbußen, vor allem die Verfügbarkeit der Verbindungen und die Skalierbarkeit der Bandbreite in Betracht gezogen. Die Verfügbarkeit der Verbindungen wird definiert als die Zeitdauer, in der eine Anwendung Zugriff auf Daten über das SAN pro Jahr hat und wird in Prozent angegeben. Zwischen allen Servern, die an einer bestimmten Anwendung und deren Datenspeicherung beteiligt sind, muss mindestens ein Pfad funktionieren. Die sogenannten Path-Minutes beschreiben die Auswirkungen, die ein Ausfall hat. Eine Path-Minute wird definiert als ein Portausfall von einer Minute, das heißt, wenn der Austausch und die Neukonfiguration eines defekten 16Port-Switches 75 Minuten dauert, betragen die Einbußen 1200 Path-Minutes (75 Minuten x 16 Ports). Die Skalierbarkeit der Band- 166 L AN line 12/2000 Feature Redundanz aller kritischen Komponenten mit automatischem Failover Austausch kritischer Komponenten bei laufendem Betrieb Laden von Codes und Upgrades ohne Betriebsunterbrechung und ohne System IPL Fehlerisolation auf Komponentenebene kein Fabric-Ausfall bei Ausfall eines Directors/Switches Phone-Home-, Email-Home-, PageHome-Funktionen bei Problemen konstante Latency zwischen Fabric Ports Ports FC Director FC Switch Fabric ja nur Stromversorgung und Lüfter ja ja nur Stromversorgung und Lüfter eingeschränkt ja nein ja ja ja ja ja nein 16 bis 128 8 bis 16 Definition von Fibre Channel Directoren und Fibre Channel Switches breite schließlich gibt an, in welchem Maße die Bandbreite gleichzeitig mit der Connectivity erhöht werden kann. Die QoC wird in fünf Stufen unterteilt: Failure Sensitive – keine Redundanz (Hubs), Failure Resilient mit teilweiser Redundanz (Hubs und Switches), Failure Resilient mit vollständiger Redundanz (Switches und Directoren), Failure Tolerant mit vollständiger Redundanz und fehlertoleranten Backplane-Anschlüssen (Directoren), Failure Tolerant mit vollständiger Redundanz und vollständiger Fehlertoleranz (Directoren). Wird eine QoC der Stufe 4 oder höher gefordert, gibt es keine Alternative zu Fibre Channel Directoren, weil Switched Fabrics die Path-Minute-Grenzen nicht einhalten können. Selbst unter idealen Bedingungen dauert es 60 Minuten, um einen defekten Switch auszutauschen. Dies entspricht 960 Path-Minutes für einen 16Port-Switch. Die maximal zulässige Anzahl für Stufe 4 beträgt jedoch nur 500 Path-Minutes. Für Stufe 5 sind sogar nur 50 Path-Minutes zulässig. Die geforderte hohe Verfügbarkeit können also nur Directoren gewährleisten. Bei der Planung der Connectivity von hochverfügbaren SANs muss überlegt werden, welches Speicherwachstum erwartet wird, inwieweit das SAN skalierbar sein soll, welche Verfügbarkeit und QoC gefordert wird und ob geringe Anschaffungskosten wichtiger als geringe laufende Kosten sind. Für Fibre Channel Directoren sollte man sich entscheiden, wenn: 1. eine Verfügbarkeit von 99,99 Prozent oder 99,999 Prozent gefordert wird, 2. Ausfallzeiten ein Risiko darstellen, 3. wenn eine Port-Anzahl von 32 oder mehr Ports benötigt wird, 4. ein SAN-Erweiterung auf mehr als 32 Ports zu erwarten ist, 5. das SAN sehr komplex ist, 6. wenig Personal zur Verfügung steht, 7. die Betriebskosten so gering wie möglich sein sollen. Dagegen sind Switch Fabrics dann die bessere Lösung, wenn: 1. Anschaffungskosten entscheidend sind, 2. Peformance-Einbußen akzeptabel sind, 3. eine Verfügbarkeit von 99,9 Prozent ausreicht, 4. auch in Zukunft weniger als 32 Ports benötigt werden, 5. das SAN eine einfache Struktur aufweist, und 6. der Switch-to-Switch-Verkehr geringer als die maximale Bandbreite ist. In jedem Fall müssen diese Aspekte bereits bei der Planung berücksichtigt werden, um später unnötige Mehrkosten und Betriebsunterbrechungen durch Aufrüstungen zu vermeiden. (Frank Albertz/mw) Frank Albertz ist Sales Consultant bei Inrange Technologies. www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS VERNETZTE FC-SWITCHES FC-Fabrics für unternehmensweite SANs Große Fabrics sind das zentrale Element, um mit Hilfe von geswitchten Fibre Channel Storage Area Networks (SANs) unternehmensweite Skalierbarkeit und Flexibilität zu erreichen. Eine große Fabric – bestehend aus einem leistungsfähigen Netzwerk intelligenter SAN-Switches – ermöglicht eine “pay-as-you-grow“ – Strategie für den weiteren Ausbau der Storage-Area-Netzwerke. SANs, die nur auf sehr großen Switches basieren, stoßen bei der Anzahl der möglichen Funktionen schnell an ihre Grenzen. Große Fabrics zeichnen sich demgegenüber durch eine deutlich höhere Flexibilität aus. ei der Entwicklung und Implementierung eines großen Fabrics stehen weitaus mehr Wahlmöglichkeiten zur Verfügung – damit sind aber auch mehr Entscheidungen zu treffen. Mit am wichtigsten sind dabei – neben zahlreichen anderen Faktoren – Überlegungen zum zu erwartenden Umfang des Datenverkehrs, zum Unternehmenswachstum und zu den Redundanz-Levels. Die großen Vorteile dieser Technologie – Skalierbarkeit, Connectivity, Leistungsfähigkeit, Verwaltbarkeit und Sicherheit wiegen diesen Mehraufwand jedoch mehr als auf. Der Einsatz eines großen Fabrics macht die Neukonzeption sowie die bei einem nur auf einzelnen großen Switches basierendem SAN regelmäßig notwendigen Erweiterungen der SAN-Hardware überflüssig. Darüber hinaus bieten große Fabrics einen langfristigen Investitionsschutz – die Voraussetzung für ein kontinuierliches Unternehmenswachstum. B DIE GRENZEN VON SANS MIT GROSSEN SWITCHES SANs werden nicht nur bei Fortune-1000-Unternehmen immer beliebter. Aufgrund der schwer kalkulierbaren Wachstumsentwicklung und den ebenso unvorhersehbaren zukünftigen Anforderungen an die Online-Verwal- 168 L AN line 12/2000 tung und -Wartung der Datenbestände gewinnt die SAN-Technologie als robuste Infrastruktur für die Verbindung tausender Server mit hunderten von Speichergeräten stetig an Bedeutung: Große Unternehmen sind zunehmend auf ein Speichernetzwerk angewiesen, das bereits getätigte Investitionen in Tape- und Disk-Technologie schützt und gleichzeitig unternehmensweite Verwaltbarkeit, Sicherheit und Leistung garantiert. Darüber hinaus sind die Skalierbarkeit und Flexibilität der SANs bei den ständig wechselnden Anforderungen der schnell wachsenden Unternehmen ein Muss. Einige Anbieter versuchen, dieser Herausforderung mit großen Multi-PortSAN-Switches gerecht zu werden. Dies wird mit der Aussage begründet, für SANs sei ein “Big Switch“-Ansatz, der die zunehmende Anzahl von Servern und Speichergeräten mit Switch-Ports verbindet, vollkommen ausreichend. Ziel dieses Ansatzes ist es, unternehmensweite SANs durch eine Reduzierung der zu berücksichtigenden Einsatzprobleme zu vereinfachen. Das Big-Switch-Modell ist jedoch für die meisten Organisationen nicht die günstigste Strategie, da SANs, die ausschließlich auf großen Switches basieren, in vielen Bereichen Einschränkungen erfordern: – Der Umfang des SAN ist von vornherein begrenzt. Sobald die wachsenden Anforderungen mit der vorhandenen Anzahl von Switches nicht mehr erfüllt werden können, muss der große Switch entweder ersetzt oder mit weiteren Switches ergänzt werden. Meist erfordert dies die komplette Neugestaltung des SAN. – Die Connectivity-Optionen sind beschränkt, da nur Server- und Speichergerättypen eingesetzt werden können, die der jeweilige Switch unterstützt. – Die Gefahr von Leistungseinbußen durch Staus an den Ports oder Oversubscription ist hoch. Gleichzeitig stehen nur begrenzte Eingriffsmöglichkeiten zur Verfügung. – Die langfristige Kostenbilanz ist eher ungünstig. Umfangreiche Upgrades bei der Switching-Hardware und die Umgestaltung des SAN sind bei jedem Technologiewechsel oder steigenden Anforderungen notwendig. Durch diese Einschränkungen kann man das “Scaling at the Switch“ sicher nicht als den besten Ansatz für unternehmensweite SANs bezeichnen. Günstiger ist hier die Skalierung des gesamten Netzes selbst über ein großes Fabric mit mehreren Hochleistungs-Switches innerhalb eines Netzwerks. Die Implementierung von großen Fabrics ermöglicht den Aufbau einer nahtlosen Speicherinfrastruktur, die sich auch an zukünftige Anforderungen problemlos anpassen lässt. FABRIC NETWORKS UND GROSSE FABRIC-SANS Ein Fibre-Channel-Fabric ist ein Zusammenschluss von Point-toPoint-Verbindungen zwischen einzelnen Servern und Speichergeräten. Der Einsatz von Fibre-Channel-Switching-Hardware – wie beispielsweise der SilkwormProduktfamilie von Brocade – ermöglicht den Aufbau eines intelligenten Netzwerks, das einen effizienteren und leichter zu verwaltenden Datentransfer zwischen den Knotenpunkten ermöglicht. Aktuelle Installationen zeigen zahlreiche Vorteile, unter anderem: www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS – Skalierbarkeit durch Vernetzung – in den meisten Fortune-1000-Umgebungen ist die Skalierbarkeit ein zentrales Ziel beim Einsatz von SANs, die tausende von Knoten miteinander verbinden und ein strukturiertes Wachstum ermöglichen sollen. Switched-FabricSANs sind mit Technologien wie Networking problemlos skalierbar. Mit der Networking-Technologie können hunderte von Switches vernetzt und so die Anzahl der für die Verbindung der Speichergeräte verfügbaren Ports beliebig erhöht werden. Zusätzlich zu der Flexibilität bei der Entwicklung und dem Aufbau kann das Hinzufügen von Switches die Gesamtbandbreite des Netzwerks deutlich erhöhen und stellt dadurch sicher, dass das SAN-Fabric durch die wachsenden Anforderungen des Unternehmens an die Speicherleistung nicht überlastet wird. – Intelligenz durch Zoning – Switched Fabric-SANs erlauben es, zahlreiche SAN-Managementfunktionen über die Switch-Hardware zu realisieren. Neben der logischen Zuordnung bei der Implementierung der Traffic-Management-Policy können die Switch-basierten Algorithmen auch bestimmte Fabric-Zonen definieren. Zoning ist die Basis für effizienten, Policy-basierten SAN-Zugang, Troubleshooting und Sicherheit. – Routing und Rerouting – Intelligentes Switching ermöglicht Routing-Fähigkeiten innerhalb des SAN-Fabric. Brocade erreicht intelligentes Routing über Routing-Algorithmen wie Fabric Shortest Path First (FSPF), das vom ANSI Fibre Channel Standards Commitee als SAN-Standard übernommen wurde. Darüber hinaus nutzen Brocade-Switches alle vorhandenen, gleichwertigen Routen zwischen einzelnen Switches und führen bei einem Verbindungsfehler automatisch ein Rerouting im Netzwerk durch. – Erhöhte Verfügbarkeit – SANs ermöglichen eine effiziente Datenspiegelung auf einer Peer-to-Peer-Basis über zugewiesene Ports innerhalb des Switches. Diese Spiegelfunktionen stören die 170 L AN line 12/2000 Leistungsfähigkeit der Anwendungen nicht, es ist im Gegenteil sogar eine Leistungssteigerung zu erwarten. Die Spiegelung trägt zu einer deutlich höheren Fehlertoleranz und Verfügbarkeit bei den SAN-basierten Daten bei. Durch die Kombination der Spiegelungsfunktionen mit den Switch-basierten Routing-Algorithmen (die den Verkehr um Pfadunterbrechungen innerhalb des Fabrics umleiten) entsteht ein widerstandsfähiges, sich selbst reparierendes hochverfügbares Netzwerk, das den Anforderungen auch anspruchsvollster Speicherumgebungen gerecht wird. Anzeige – Investitionsschutz: Switched-SANFabrics unterstützen bereits getätigte Investitionen in Speichergeräte sowie Speicherlösungen, die auf anderen Fibre-Channel-Topologien wie Fibre Channel Arbitrated Loop (FC-AL) und Point-to-Point basieren. Die Speicherinfrastruktur lässt sich via Switch Networking inkrementell erweitern – in einen Brocade-Fabric können bis zu 239 Switches integriert werden. Gute Erfahrungen mit Switched-FibreChannel-SAN-Fabrics ermutigen immer mehr Unternehmen zum Einsatz von Fabric-SAN-Architekturen. Wird eine solche Umgebung ganz neu implementiert, so entscheiden sich Unternehmen heute häufig dafür, ein unternehmensweites Switched-Fabric von vornherein als grundlegende Infrastruktur für die Vernetzung bestehender und zukünftiger Speicherlösungen einzusetzen. Daneben kann man beobachten, dass viele Unternehmen, die SANs bereits im kleineren Rahmen einsetzen, beispielsweise für einzelne Workgroups oder auf Abteilungsebene, inzwischen immer öfter ein Switched-Fabric-Backbone für die Verbindung vorhandener SAN-Inseln und anderer Legacy-Speicherlösungen installieren. Die Herausforderungen, denen diese beiden Gruppen gegenüberstehen, sind jedoch prinzipiell gleich: Beide benötigen eine unternehmensweite StorageBackbone-Architektur, die über die Leistungsfähigkeit, Skalierbarkeit, Servicefreundlichkeit und Verwaltbarkeit verfügt, auf die unternehmenskritische Anwendungen angewiesen sind. Wie oben bereits erwähnt, versuchen einige Anbieter, dieses Problem mit einem einzelnen, großen Multi-Port-Switch zu lösen. Auf den ersten Blick mag dieser Ansatz als einfache und sinnvolle Lösung erscheinen, da Switch-Fabric-Netzwerke, die auf Workgroup-Level zum Einsatz kommen, einfach imitiert werden. Die Grenzen dieser Architektur sind jedoch schnell erreicht. Brocade hat herausgefunden, dass mit einer Big-Fabric, der aus zahlreichen in einer vernetzten Architektur konfigurierten Switches besteht, ein weitaus robusterer und skalierbarerer Enterprise-SANBackbone realisiert werden kann. Bild 1 zeigt die gemeinsame Speicherkonsolidierung mehrerer Abteilungen. Doppelte Pfade zwischen Servern, Switches und Speichergeräten gewährleisten Hochverfügbarkeit und verbessern die Leistungsfähigkeit, indem sie die Anzahl der Übertragungsschritte zwischen Servern und jeder Speichereinheit auf maximal zwei Etappen reduzieren. Große Fabric-SANs erlauben den unternehmensweiten Einsatz der SANTechnologie und ermöglichen die gemeinsame Nutzung der Datenbestände in www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS der gesamten Organisation, über das WAN und sogar über das Internet. Da große Fabric-SANs die Anforderungen an das Speichersystem kostengünstig und auf einem hohen Leistungsniveau erfüllen, lassen sich zahlreiche Lösungen realisieren, zum Beispiel: Zu Beginn der Planung für ein großes Fabric werden natürlich zuerst die spezifischen Anforderungen an die gemeinsame Datennutzung im Unternehmen festgelegt: Welche Geschäftsprozesse könnten vom gemeinsamen Zugriff auf die zur Zeit noch in geografisch oder organisato- Bild 1. Gemeinsame Speicherkonsolidierung mehrerer Abteilungen – LAN-free-HochgeschwindigkeitsBackup, das den Bestand der Daten im Fall von ungeplanten Unterbrechungen gewährleistet, – Server-unabhängiges Spiegeln von Plattenlaufwerken für höchste Fehlertoleranz, – schnelle und sichere Datenreplikation zur Unterstützung von Data-Warehousing und anderen Funktionen, – gemeinsames Nutzen von Daten durch mehrere Workstations oder Server für die Unterstützung von Enterprise-Applikationen und den gemeinsamen Zugriff auf Daten über Web-Server in E-Business-HostingUmgebungen, – Konsolidierung kleinerer SAN-Fabrics in einem einzigen großen Fabric. Viele Techniken, die bei der Planung eines LAN-Backbones verwendet werden, kommen auch bei der Entwicklung von Fabric-SANs zum Einsatz. Im Folgenden werden die Methoden im Einzelnen genauer beschrieben. www.lanline.de risch abgetrennten SAN-Inseln oder in anderen Speicherarchitekturen abgelegten Daten profitieren? Die Zielsetzung beim Data-Sharing lässt sich durch die Klärung der Art und des Umfangs der gemeinsamen Datennutzung genauer festlegen. Angaben darüber helfen bei der Definition des zu erwartenden Umfangs von Anfragen, die von nicht lokalen Nodes außerhalb des Insel-SANs gestellt werden. Die Analyse dieses Verhältnisses von lokalem und externem Node-Zugriff – zusammen mit Daten über das Verkehrsaufkommen im Insel-SAN – erlaubt eine Abschätzung der erforderlichen Bandbreite für das Big-Fabric. Dies wird bei allen über das Big-Fabric vernetzten Insel-SANs durchgeführt und ermöglicht so genaue Angaben über die Bandbreiteanforderungen des gesamten Fabrics. Die Zielsetzung ist im Einzelnen natürlich variabel, es sollten aber immer die Kriterien Skalierbarkeit, Connectivity, Leistungsfähigkeit, Verwaltbarkeit und L AN line 12/2000 171 SCHWERPUNKT: STORAGE AREA NETWORKS Sicherheit im Vordergrund stehen. Darüber hinaus gehört zu jeder einzelnen Zieldefinition ein auf bestimmten Kriterien basierendes Kontrollverfahren, mit dem die Einhaltung der Zielvorgaben überprüft werden kann. Zur Steigerung der Skalierbarkeit von Big-Fabric-SANs kommen drei kombinierte Techniken zum Einsatz: 1. Hinzufügen eines Switches mit höherer Port-Zahl (es kann auch ein Switch mit einer geringeren Zahl von Ports weiterverwendet werden, dabei muss aber ein weiterer Switch mit einer entsprechenden Anzahl von Ports ergänzend angeschlossen werden). 2. Bündelung mehrerer Ports auf einen physikalischen Port, 3. Vernetzen der Switches selbst innerhalb einer Layer-Architektur. DAS HINZUFÜGEN VON PORTS Das Hinzufügen weiterer Nodes in einem Netzwerk kann einfach über einen Switch mit weiteren Ports geschehen. Diese Technik kann aber schnell höchste Kosten verursachen, da immer dann, wenn die erforderliche Speicherkapazität steigt oder die Zugriffsanforderungen wachsen – und damit die Integration weiterer Nodes nötig wird – das komplette Switch-Equipment ausgetauscht werden muss. Daneben ist bei größeren Switches mit höheren Kosten pro Port zu rechnen, was auf lange Sicht die Gesamtkosten in die Höhe treibt. Große Switches erzeugen darüber hinaus höhere Vorabkosten, auch wenn nicht alle Funktionen von vornherein genutzt werden können. BÜNDELUNG VON PORTS Die zweite Technik, das Bündeln von Ports, kombiniert mehrere Kanäle zu einem einzigen Übertragungsmedium, und zwar durch die gleichzeitige Aktivierung mehrerer Einzelkanäle. In einem traditionellen LAN übernimmt die Bündelung häufig ein Hub, der es ermöglicht, mehrere vernetzte Nodes über eine einzige Verbindung an das Backbone-Netzwerk anzuschließen. Mit einer spezialisierten Software lassen sich die Bündel an ausgewählte Switch-Ports anfügen. Die Bün- 172 L AN line 12/2000 delung von Ports setzt eine sehr sorgfältige Planung voraus, da gebündelte Ports immer ein potenzieller Engpass sind und unerwünschte Verzögerungen im I/OVerkehr des Speichernetzwerks verursachen können. SWITCH-LAYERING Das dritte Verfah- ren, Switch-Layering (Networking), lagert den Bereich Skalierung aus der Hard- und Software eines bestimmten Switches aus. Diese Aufgaben übernimmt dann das Netzwerk-Design. Durch das Switch-Layering werden NoAnzeige des an kleinere Switches auf einem logischen Layer des Fabrics angeschlossen. Diese Switches werden dann mit einer zweiten Ebene oder einem zweiten Layer von Switches verbunden, die wiederum mit einer dritten Ebene verbunden sind usw. Das Switch-Layering verfügt unter anderem über folgende Vorteile: Die Bandbreite des Netzwerks steigt mit jedem neuen Switch. Kleinere, preisgünstigere Switches halten die Kosten je Port niedrig. Redundante Pfade erhöhen die Fehlertoleranz. Mehrere Switch-Layer und integrierte Redundanz zwischen den einzelnen Layern erlauben den Aufbau einer hochverfügbaren Konfiguration, die die Zuverlässigkeit von 24 mal 7-Opera- tionen sicherstellt. Diese Architektur verteilt den Netzwerkverkehr auf mehrere Switches, vergrößert die Bandbreite für mehrere ISLs und verringert die Anzahl potenzieller Engpässe. Darüber hinaus kann ein großer Teil des Netzwerkverkehrs auf den unteren Ebenen der vernetzten Switche abgewickelt werden, was wiederum zu geringeren Anforderungen an die Bandbreite auf den höheren Ebenen führt. Der Switch-Einsatz innerhalb einer Multiple-Layer SwitchArchitektur führt zu einem großen Spielraum bei der Entwicklung der Architektur. Das Zoning schafft das Äquivalent zu virtuellen Netzwerken zwischen den Geräten im vernetzten großen FabricSAN. Large Fabrics ermöglichen eine sichere Verwaltung von einem zentralen Punkt aus. Intelligente Switches spielen eine aktive Rolle bei der Überwachung des SAN-Status und beim Reporting von Ereignissen an den Administrator. Administratoren können Statusinformationen erfassen und proaktiv auf Ereignismeldungen der Switches reagieren, indem sie über eine Managementkonsole in praktisch jeden Bereich des SAN eingreifen können. Sind die Switches interoperabel, so steht SAN-Designern eine Kombination der oben genannten Techniken zur Verfügung. Ob mit oder ohne sehr großen Switches und Techniken zur Bündelung von Ports – Skalierbarkeit über verschiedene Layer zu ermöglichen, ist eine wichtige Funktionalität jedes großen Fabric-SAN-Designs. CONNECTIVITY Connectivity bezeichnet mehr als nur die physikalische “Verdrahtung“ von SAN-Geräten. Viel mehr bezieht sich der Begriff auch auf den Zugriff auf und den effektiven Transport von Daten im Netzwerk. Die Anforderungen an die Connectivity hängen davon ab, wie die Daten in einem Netzwerk geroutet werden. In einem traditionellen LAN gehört zum Routing die Interpretation der Informationen in den Datenpaket-Headern sowie das Weiterleiten von Paketen an die entsprechenden Ziel-Nodes. Wie LANs verfügen auch einige www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS SAN-Fabric-Switch-Produkte inzwischen über integrierte Routing-Funktionen. Fabric Shortest Path First (FSPF) von Brocade ist ein Beispiel für einen Routing-Algorithmus, der die Anzahl der Einzelschritte beim Datenverkehr in einem möglicherweise sehr komplexen Fabric von in verschiedenen Layern organisierten Switches minimiert. Der Algorithmus ist auch in der Lage, Ausfälle von Switches und anderen SAN-Geräten (oder unterbrochenen Verbindungen) auszugleichen, indem er automatisch und effizient den Datenverkehr um das ausgefallene Gerät herumleitet. FSPF nutzt darüber hinaus redundante Verbindungen im Netzwerk, eine Fähigkeit, durch die Administratoren die Netzwerkleistung genau auf die Anforderungen abstimmen können. Diese Verbindungen stellen zusätzliche Pfade für eine größere Flexibilität zur Verfügung und erhöhen dadurch automatisch die Leistungsfähigkeit. Hochentwickelte SAN-Switches verfügen über Routing-Methoden, die die Anzahl der Übertragungssegmente erfassen und mittels kostenbasierter Algorithmen (Least-Cost) erweitert werden können. Least-Cost-Routing erlaubt Administratoren die Gewichtung bestimmter Pfade im Netzwerk, basierend auf den Kosten einer bestimmten Verbindung. Daneben lässt sich Least-Cost-Routing auch für die Realisierung eines möglichst hohen Gesamtdurchsatzes im Netzwerk einsetzen. www.lanline.de Ein vereinfachtes Beispiel eines erweiterten großen Fabric zeigt Bild 2. Hier wurde ein großes Fabric-SAN in einer Unternehmenszentrale über ein MAN erweitert, um auch entfernte Speichergeräte am Standort eines Disaster-Recovery arbeiten. In einer gemischten Umgebung mit 2-GBit/s- und 1-GBit/s-FibreChannels können Administratoren durch die Intelligenz der Least-Cost-RoutingProtokolle sicherstellen, dass das Datenaufkommen immer über den Pfad mit der Bild 2. Ein vereinfachtes Beispiel eines erweiterten großen Fabric Service-Providers integrieren zu können. Die Disk-Arrays des Disaster-Recovery Service-Providers spiegeln lokale DiskArrays, die zur Speicherinfrastruktur des Unternehmens gehören. Tritt ein Ausfall im lokalen Array auf, so übernimmt der entfernte Array die Abwicklung laufender Vorgänge. Least-Cost-Routing optimiert das Routing sowohl während normaler Abläufe, wo es für geringe Verzögerungszeiten sorgt, als auch bei Ausfällen von Geräten, wo es die Operabilität aufrecht erhält. Least-Cost-Routing wird besonders in Zusammenhang mit der zunehmenden Verbreitung des 2-GBit-Fibre-Channels eingesetzt, und zwar als Ergänzung der Standard-Fibre-Channels, die mit 1 GBit/s größten Bandbreite – statt wie im normalen Betrieb über den kürzesten Pfad übertragen wird. STEIGERUNG DER PERFORMANCE In- telligentes Routing ist eine Grundvoraussetzung für die Leistungsfähigkeit von Large-Fabrics. Dennoch gilt es, eine Reihe weiterer Faktoren zu berücksichtigen, um Engpässe zu vermeiden. Wie bereits ausgeführt, kann es prinzipiell überall im Netzwerk zu Staus kommen, wenn das Verhältnis zwischen Bandbreitenbedarf und Verfügbarkeit nicht ausgeglichen ist. Gebündelte Ports können beispielsweise Staus verursachen, wenn es zu einem beträchtlichen Aufkommen an Netzwerkverkehr zwischen Nodes an den zu- L AN line 12/2000 173 SCHWERPUNKT: STORAGE AREA NETWORKS sammengefassten Ports und anderen Nodes innerhalb des Fabrics kommt. Wenn der Bedarf an Bandbreite (der vom Datenaufkommen definiert wird) die verfügbare Bandbreite überschreitet (die wiederum von der Leistung des Ports abhängt), entsteht ein typischer Engpass. In einem SAN kann die gleiche Problematik durch “Oversubscription” entstehen, und zwar bei der Verbindung der einzelnen Switches. Als Beispiel seien zwei 16-Port-Switches genannt, die über vier Inter-Switch-Links (ISLs) miteinander verbunden sind: Jeder Switch verfügt über zwölf Ports, die für die Verbindung von Servern oder Speichergeräten eingesetzt werden können. Diese Konfiguration bezeichnet man wegen des potenziellen Engpasses, der sich entwickelt, sobald fünf oder mehr Ports auf Switch A mit fünf oder mehr Ports auf Switch B kommunizieren müssen, als “oversubscribed“. Nur vier ISLs sind nämlich gleichzeitig in der Lage, das Datenaufkommen zu bewältigen, wodurch manche Kommunikationsvorgänge zeitweise blockiert sein können. Oversubscription ist nicht notwendigerweise ein Problem, sofern sie auf der Grundlage logischer Annahmen zugelassen wird. In LANs ist Oversubscription sogar sehr häufig zu beobachten. Das Oversubscribing der Switch-Ports führt nicht unbedingt zu Leistungseinbußen, die mit dem Verkehrsaufkommen zusammenhängen, wenn man sicher davon ausgehen kann, dass der größte Teil des LAN-Verkehrs (80 Prozent) zwischen Geräten des gleichen LANs abgewickelt wird und nur ein kleiner Prozentsatz des Verkehrsaufkommens (20 Prozent) den Inter-LAN Backbone nutzt. Diese Erkenntnis wird allgemein als “80-zu-20“Regel bezeichnet. Ähnlich ist auch bei einem Large-Fabric oversubscribed-Switching in gewissen Grenzen tolerierbar, wenn auch nicht im selben Maß wie bei LANs. Geräte, die häufig miteinander kommunizieren, können mit Ports auf demselben Switch verbunden werden, während Geräte, die seltener miteinander in Kontakt treten, auf verteilten Switches platziert und in einer 174 L AN line 12/2000 Oversubscribed-Konfiguration verbunden werden können. Die Festlegung, wann Oversubscription zulässig ist, erfordert eine genaue Kenntnis des Datenflusses zwischen den einzelnen Speichergeräten: Meistens kommunizieren innerhalb des SANs die Server nicht miteinander, ebenso wenig die Speichergeräte, mit Ausnahme einiger spezialisierter Anwendungen. Im Normalfall kommunizieren also Server mit Speichergeräten. Es ist daher wichtig, die charakteristischen Merkmale des Verkehrs zwischen diesen Geräten zu kennen. Nur so kann die Leistung in großen FabricSystemen optimiert werden. MANAGEMENT Um die Leistung eines großen Fabric-SANs auch langfristig zu gewährleisten, müssen bei der Planung von Anfang an die Managementfunktionen genau festgelegt werden. Ein wichtiger Punkt dabei ist, wie Zustand und Status der Node-Geräte erfasst und an die SAN-Managementlösung weitergeleitet werden. Darüber hinaus muss auch in Betracht gezogen werden, welche Auswirkungen Ausfälle von einzelnen Geräten oder Serviceunterbrechungen auf das Fabric haben. Bei der Managementplanung für ein Large-Fabric-SAN sollten deshalb unter anderem folgende Fragen beantwortet werden: Können die Switches die Topologie des SAN automatisch identifizieren? Unterstützen die Switch-Produkte das Reporting an das Netzwerkmanagement über das Simple Network Management Protocol (SNMP)? Bietet der Switch-Hersteller ein API für die einfache Integration von High-Level-Funktionen in SAN-Managementapplikationen? Über den Zustand der Node-Geräte und des Netzwerkequipments hinaus müssen Zustand und Leistungsfähigkeit des Fabric selbst genau ermittelt werden. Zu den wichtigsten Fragen dabei gehören: Gewährleisten die SAN-Switches eine ausreichende Stabilität und Leistungsfähigkeit der Fabrics? Ist eine Segmentüberwachung des Betriebszustands in einzelnen Bereichen der Fabric möglich? Wie werden die gesammelten Daten über Geräte, das Netzwerk und den Zustand des Fabrics an die Mitarbeiter weitergegeben, die für die Verwaltung der großen Fabric-Infrastruktur verantwortlich sind? Ein wichtiger Grund für die Leistungsfähigkeit der SAN-Technologie ist die Fähigkeit zur effektiven Verwaltung der Speicherinfrastruktur (über eine Managementkonsole). Diese Umgebungen sollten alle Managementdaten integrieren und den verantwortlichen Mitarbeitern in verständlicher Form präsentieren. Manche Hersteller bieten eine Managementkonsole zusammen mit ihren Produkten an, während andere auf die Management-Software von Drittherstellern zurückgreifen. SICHERHEITSKRITERIEN Große Fabrics wurden entwickelt, um beim gemeinsamen Datenzugriff so viele Anwendungen und Benutzer wie möglich zu integrieren. Dem stehen die Anforderungen an die Sicherheit gegenüber, da zahlreiche sensible Daten zu berücksichtigen sind. Der Zugriff muss gewissenhaft kontrolliert werden, denn die Sicherheitsanforderungen bei großen Fabric-SANs sind hoch, dementsprechend leistungsfähig müssen die Sicherheitsfunktionen in einer solchen Architektur sein. Trotzdem darf das nicht auf Kosten der Skalierbarkeit gehen, damit beim Wachstum des SAN-Fabrics keine Einbußen auftreten. Um dem gerecht zu werden, entwickelte Brocade das Fabric-Zoning, eine Methode, bei der ein SAN unterteilt und der Zugriff über spezielle Switch-Policies geregelt wird. Spezielle Zoning-Bestimmungen in Kombination mit spezialisierten Security-Produkten zur Ver- und Entschlüsselung von Daten sowie die Kontrolle von Zugriffsrechten bilden zusammen eine umfassende Sicherheitslösung. Obwohl normalerweise die Systemanforderungen das Design von großen Fabric-SANs diktieren, ist das Wissen um potenzielle Grenzen bei der Planung von zentraler Bedeutung. Einschränkungen sind generell durch zwei Faktoren bestimmt: praktische Probleme (wie Zeit, www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Kosten, verfügbares Personal und Wissenslücken) und technologiebedingte Grenzen. Die praktischen Einschränkungen sind natürlich in jedem Unternehmen anders. Zu den technologischen Einschränkungen gehören Fragen der Hard- und Software-Interoperabilität sowie Kompatibilitätsprobleme zwischen nicht Fibre Channel-basierten Legacy-Speicherlösungen und den großen Fabric-SANs. Die erfolgreiche Implementierung einer großen Fabric-Strategie hängt maßgeblich vom Erkennen und Verstehen dieser und weiterer potenzieller Einschränkungen bei der Gestaltung eines großen Fabric-SANs ab. Dabei gleichen die Vorteile eines großen Fabric-SANs diese Einschränkungen bei weitem aus. Große FabricSANs bieten durch ihre Vorteile wie zentralisiertes Management, höhere Betriebseffizienz, höhere Leistung, effektivere Nutzung der Ressourcen, langfristigen Investitionsschutz und andere Kosteneinsparungen einen hohen Return-on-Investment. SCHRITTE BEI DER IMPLEMENTIERUNG Wie die Implementierung im Einzelnen abläuft, wird sehr stark von der Situation im jeweiligen Unternehmen beeinflusst und hängt unter anderem mit der Existenz (oder dem Fehlen) bereits bestehender SAN-Inseln zusammen. Manche Unternehmen bevorzugen es, beim Aufbau der Layer-Hierarchie eines großen Fabric-SANs “von ganz unten“ anzufangen – das bedeutet, dass zuerst Switched-SANs auf der Ebene einzelner Abteilungen und anschließend Switches auf regionaler Ebene aufgebaut werden, um schließlich diese Switches auf Backbone-Level zu integrieren. Der Vorteil dieses Ansatzes ist, dass auf dem jeweils nächsten Layer alle Informationen über den Verkehr im SAN und die Anforderungen an die Bandbreite verfügbar sind. Dieser Ansatz hat aber auch eine Schattenseite: mit jedem nachfolgenden Switch-Layer werden unter Umständen Neukonfigurationen der darunter liegenden Layer notwendig. 176 L AN line 12/2000 Die meisten erfahrenen SAN-Designer empfehlen deshalb, den BackboneLayer zuerst aufzubauen und die untergeordneten Layer danach hinzuzufügen. Bei diesem Ansatz “von oben nach unten“ können die Connectivity-Fähigkeiten des Fabrics zu Beginn des Projekts genau definiert werden. Dies Angaben bestimmen dann die Konfigurationen des SANs auf den darunter liegenden Layern. Sind bereits SAN-Inseln vorhanden, sollten der Implementierung des Fabrics zwei Schritte vorausgehen. Zuerst muss die Interoperabilität des lokalen SAN-Switch-Equipments mit dem Switch-Equipment auf den höheren Layern des Netzwerk-Fabrics sichergestellt sein. Zum zweiten sollten die SAN-Inseln umbenannt werden; das ist die Grundvoraussetzung für die Integration in das Large-Fabric-Zoning-Schema. TEST NACH JEDEM SCHRITT Ein Test nach jedem Implementierungsschritt – nach der Installation der Switches, der genauen Verfahrensdefinition für jeden Switch, der Verkabelung aller Geräte usw. garantiert eine langfristig stabile Fabric-Plattform. Ist die Fabric-Infrastruktur implementiert, sollte ein Betrieb unter Belastung stattfinden, um die grundlegenden Performance-Daten zu generieren. Diese Daten können anschließend analysiert und für die Entwicklung von Kontrollbereichen und die Festlegung von Fehler-Reporting und -Korrekturverfahren mit den Planungsvorgaben verglichen werden. Darüber hinaus müssen meist noch weitere Anpassungen des Fabric-SANs an die praktischen betrieblichen Anforderungen vorgenommen werden. Der tatsächliche Datenverkehr weicht erfahrungsgemäß von den Vorgaben ab, manchmal ist auch eine Anpassung einzelner Ports oder Routen notwendig. Ein weiterer Problembereich sind Performance-Merkmale einzelner Geräte, die von den Herstellerangaben – die ja Grundlage für die Planung waren – abweichen. Zahlreiche Faktoren spielen für das Fabric-SAN nach der Implementierung eine Rolle, aber fast alle Probleme können über geringe Veränderungen und Tuning-Maßnahmen schnell gelöst werden. Für die Leistungsoptimierung empfehlen sich Produkte wie beispielsweise Brocade Fabric Watch. Als robustes Fabric-Monitoring-Tool für mission critical SAN-Fabrics erlaubt Fabric Watch jedem Switch die kontinuierliche Überwachung des Netzwerks und der angeschlossenen Nodes nach potenziellen Fehlern – und das automatische Aufspüren potenzieller Probleme, bevor diese sich zu teuren Ausfällen entwickeln können. Fabric Watch ermöglicht Netzwerkmanagern darüber hinaus das Aufspüren zahlreicher Fabric- und Switch-Elemente, das Abrufen von Ereignismeldungen, wenn Switch- und Fabric-Elemente ihre Reichweite überschreiten und das schnelle Auffinden und Isolieren von Fehlerquellen. Des Weiteren erlaubt es Netzwerkmanagern die Optimierung der Gesamt-Performance des Fabrics und die einfache Integration von Fabric Watch in Enterprise-Systems-Managementlösungen mit einer einzigen Fabric Monitoring-Lösung auszukommen, anstatt viele verschiedene, herstellerspezifische Software-Lösungen parallel betreiben zu müssen. ZUSAMMENFASSUNG Unternehmen erkennen zunehmend die Möglichkeiten der SAN-Technologie und beginnen daher mit dem Aufbau immer komplexerer und trotzdem robusterer Netzwerke. Den zukünftigen Anforderungen wird man nicht allein durch die Erhöhung der Port-Dichte gerecht. Ebenso ist ein großes Fabric-Konzept, das ausschließlich auf Switches mit einer hohen Port-Anzahl basiert, nicht automatisch ein kosteneffektiver, investitionssicherer Ansatz für eine wachsende SAN-Infrastruktur. (Paul Trowbridge/mw) Paul Trowbridge ist Marketing Manager EMEA von Brocade Communications Systems. www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS GEMEINSAM STARK: SAN UND NAS Rezentralisierung der C/S-Landschaften Drei Viertel aller Ausgaben für Computer-Hardware entfallen laut Dataquest auf den Enterprise-Storage-Markt. Mit den steigenden Datenmengen bleiben Themen wie Verfügbarkeit, Performance, einfache und kostengünstige Verwaltung pro GByte jedoch nach wie vor maßgebliche Faktoren für künftige Investitionen. Dabei erzwingt der technologische Fortschritt bei den Massenspeichern und deren Anbindung an die Server eine Überprüfung und Neuausrichtung der Speicherkonzeption. nalysen haben ergeben, dass noch immer mehr als 80 Prozent der Unternehmensdaten direkt auf Client-Systemen gehalten werden. Dabei geht es nicht nur um Festplatten- und Festplatten-Arrays: Auch große RAID-Subsysteme sind an diverse Client-Computer im LAN angeschlossen. Mit dieser Entwicklung steigt zwangsläufig die Komplexität des Storage-Managements. Das Ergebnis sind meist vielschichtige Verteilungen im LAN, häufig gepaart mit doppelter Datenhaltung und A aufwendiger “Free-Space“-Verwaltung. Kommen unterschiedliche Standorte, Netzwerkanbindungen und Client-Architekturen hinzu, entwickelt sich das Ganze zu einer tickenden Zeitbombe. Datenkonsolidierung und die Rezentralisierung der Speicherverwaltung stehen deshalb auf dem Plan. Diese lassen sich nur mit einer grundlegenden Veränderung der Architektur bewältigen. Eine neue Rolle wird den Massenspeichern zugedacht. Sie fungieren nicht mehr als klassische Peri- Die drei Technologien im Überblick: DAS, NAS und SAN 178 L AN line 12/2000 www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS pherie, sondern sind fest in die Netzwerkumgebung integriert und betreiben aktiv Datenaustausch mit Servern und Clients. Um die Wette eifern hierbei zwei Technologien: Network Attached Storage (NAS) und Storage Area Network (SAN). Im Gegensatz zum herkömmlichen Direct Attached Storage (DAS) erlaubt das NAS-Modell Datenzugriffe auf ein FileSystem, das physikalisch nicht am Applikations-Server liegt, sondern auf einem entfernten Daten-Server, dem NAS-Device. Zwischen dem Daten-Server, Clients und Servern befindet sich ein LAN, über das die Datenanfragen der Clients oder Server transportiert werden. Diese I/OFunktionen, die das Betriebssystem normalerweise auf lokalem Speicherplatz ausführt, lassen sich durch standardisierte Netzwerkprotokolle wie Network File System (NFS) im Unix-Bereich und Common Internet File System (CIFS) im Windows-NT-Bereich auf ein LAN ausweiten. Gegenüber lokalem Speicher erreicht man so eine wesentlich höhere Flexibilität: Häufige, CPU-intensive File-System- und Storage-Operationen werden vom Clientoder Applikations-Server verbannt; die CPU kann sich ihren eigentlichen Aufgaben widmen. Ein weiterer Grund für die mittlerweile große Verbreitung von NAS ist die Performance der heutigen LANs. Lag bei DAS vor fünf Jahren die Datentransferrate mit Fast/Wide SCSI bei 20 MByte/s, so sind mit Gigabit Ethernet derzeit über 100 MByte/s möglich. Um die steigenden große Datenmengen nicht länger über LANs transportieren zu müssen, haben sich parallel dazu Initiativen zur Implementierung und Standardisierung von SANs gebildet. Ursprünglich im Mainframe-Umfeld zu Hause, wurde das SAN-Modell auf Client-/Server-Umgebungen übertragen und entsprechend erweitert. Während eine NAS-Lösung Storage direkt den LAN-Clients bereitstellt, bildet das SAN-Konzept ein weiteres Netzwerk zwischen Storage-Subsystemen und Servern. Im Gegensatz zum einzelnen DAS-Subsystem lassen sich die Daten so auf ein beliebiges Storage-Subsystem im SAN-Netzwerk-Verbund speichern. Das File-System und das Datenmanagement 180 L AN line 12/2000 obliegen dabei den an das SAN angeschlossenen Servern. Diese führen die I/OAnfragen der LAN-Clients direkt aus. Da so einfaches, aber effizientes StorageRessourcen-Management möglich ist, lassen sich die Speicherkosten gegenüber dem DAS-Modell um bis zu 40 Prozent reduzieren. Dementsprechend hoch bemessen Marktforscher den Run auf SAN. Marktvolumina von mehreren Milliarden Dollar werden derzeit prognostiziert. Was die Performance des Storage-Subsystems und dessen Anbindung an den Server anbelangt, schuf man 1981 als Anschlusstechnik die Bus- und Protokolltechnologie Small Computer System Interface ten lassen sich ohne Probleme etwa Festplatten unterschiedlicher SCSI-Modi gemeinsam an einem Ultra2-SCSI-Bus oder -Kanal betreiben. Schon deshalb hat sich SCSI sowohl bei NAS- als auch bei SANArchitekturen etabliert. Vor allem im Großrechnerbereich setzte man parallel dazu schon frühzeitig auf serielle High-speed-Datenkanäle. Dazu gehören unter anderem der seit 1991 von IBM entwickelte Escon-Bus, der Datenraten bis zu 117 MByte/s ermöglicht. Mit dem seriellen Versenden und Signalisieren von Daten lassen sich nämlich höhere Transferraten erzielen als mit vergleichbaren parallelen Bustechnologien. Somit Das NAS-Modell erlaubt Datenzugriffe auf ein File-System, das physikalisch nicht am Applikations-Server liegt, sondern auf einem entfernten Daten-Server, dem NAS-Device (SCSI). Der seit Oktober 1998 etablierte Ultra-3-SCSI-Modus, auch Ultra/160 genannt, erlaubt heute Transferraten bis zu 160 MByte/s. Mit dem Ultra/320-Modus (im Jahr 2001) beziehungsweise dem Ultra/640-Modus (im Jahr 2003) sind für die Jahre 2001 bis 2003 eine weitere Verdoppelung beziehungsweise Vervierfachung der Transferraten geplant. Wenn man bedenkt, dass sich durch RAID-Technologien parallele SCSI-Kanäle parallel mit Daten beschreiben lassen, gewinnt man zusätzliche Performance. Für die SCSI-Technologie spricht auch die Leistungssteigerung von einem Modus zum anderen, bei gleichzeitig gewährleisteter Abwärtskompatibilität. Mit anderen Wor- stand in den Grundzügen schon Anfang der 90er-Jahre eine Übertragungstechnik zur Verfügung, die als Basis für ein SANNetzwerk fungieren konnte. Als Technologie mit den größten Zuwachsraten hat sich jetzt allerdings die serielle Fibre-Channel-(FC-)Bus-Technologie durchgesetzt. 1993 hatten HP, IBM und Sun Microsystems die Fibre-Channel-Systems-Initiative gegründet, mit dem eigentlichen Ziel, einen standardisierten I/OInterconnect zu entwickeln. An FC-Netzwerke oder FC-Switched-Fabrics dachte damals noch niemand. Das breite Interesse der Industrie an der FC-Definition ließ allerdings schnell unterschiedliche Derivate des physikalischen Standards entstehen. www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Die für Storage-Subsysteme wichtigste Variante von 100 MByte/s Transferrate auf Basis von Optical Fiber mit bis zu zehn Kilometer Länge findet inzwischen am meisten Zuspruch. Der allgemeine Durchbruch kommt nicht von ungefähr. Neben guten Transferraten und einfacher Anbindung an die Storage-Subsysteme sprechen vor allem die gegenüber SCSI wesentlich längeren Distanzen für den Fibre Channel. Außerdem können FC-Switched-Fabrics enorme Ausmaße annehmen. Nach Angaben von Brocade erreichen die größten SAN-Netzwerke bis zu 60 Fibre-Channel-Switches und mehr als 600 FibreChannel-Ports. Wenn man bedenkt, dass sich Switches kaskadieren lassen, und an jeden Port eines Switches wiederum bis zu 126 FC-Endgeräte in einer Loop angeschlossen werden können, lässt sich unschwer erkennen, welche Storage-Kapazitäten damit möglich sind. Im Idealfall können alle an das FC-Netzwerk angeschlossenen Server auf jedes beliebige Storage-Subsystem zugreifen; sofern dies aus Sicherheitsgründen erlaubt ist. Häufiger sind jedoch Storage-Subsysteme von verschiedenen Anbietern im Einsatz, die sich aus Kompatibilitätsgründen nicht gemeinsam in einem FC-Verbund betreiben lassen. Das Gros der SAN-Umgebungen basiert daher auf der Hardware nur eines SAN-Storage-Anbieters und eines FCSwitch-Hersteller. Im Fachjargon bezeichnet man diese Architekturen als homogene SANs oder “SAN-Islands”. Vergleicht man NAS- und SAN-Systeme insgesamt, fällt zunächst auf, dass SAN-Architekturen auf ein abhängiges File-System verzichten. Die Storage-Subsysteme liegen als große unformatierte Speicher vor, die mit File-System-MetaDaten versehen sind oder als Raw-Devices betrieben werden. Da die Server-Hersteller unterschiedliche File-Systeme in ihre Betriebsysteme integriert haben, gilt es, einen Teil des Speichers dem jeweiligen Server zuzuordnen und mit den entsprechenden File-System-Informationen zu versehen. Ausnahmen bilden hier Datenbankanwendungen und Datenbank-Server, die ihre eigene “Organisation der Daten“ in den Raw-Device-Partitionen des Storage- 182 L AN line 12/2000 Subsystems vornehmen. Die DatenbankServer reservieren einmal zugewiesenen Speicher für Daten und Tabellen. Ohne die Daten in einem “fremden“ File-System suchen zu müssen, arbeiten sie so die ClientAnfragen mittels eigener interpretativer I/O-Sub-Routinen ab. Häufig werden im SAN zwischen Datenbank-Server und Storage-Subsystem große Datenvolumina bewegt und dann relativ geringe Datenmengen als Ergebnisse über das LAN an den Client weitergeleitet. Daher bietet sich ein SAN für großvolumige Datenbankund Data-Warehouse-Systeme an. Sieht man von Datenbankumgebungen ab, lassen sich bei hohem Transaktionsaufkommen sowohl mit NAS als auch SAN gleichberechtigte Storage-Architekturen darstellen. Anders ausgedrückt, lösen beide Architekturen mit unterschiedlichen Ansätzen die gleichen Datenhaltungsprobleme: das SAN in einem separaten Rechner-Storage-Verbund und NAS im lokalen Netzwerk. Anders als NAS bedeuten SAN-Installationen allerdings aufwendige neue Infrastrukturmaßnahmen. Die notwendigen Investitionen rechnen sich unserer Erfahrung nach erst dann, wenn es große interpretative Datenmengen zu bewegen gilt. Dies ist etwa bei großen SAPoder Oracle-Datenbanken der Fall. Für Daten-Sharing bei Flat Files sind die hoch spezialisierten, komplexen SAN-Server zu teuer, als dass sie das Daten-Sharing mit übernehmen sollten. Hier sind derzeit NAS-Server die erste Wahl. So ist es auch kein Wunder, dass das Thema NAS zur Zeit ähnliche Aufmerksamkeit erregt wie die Technologie der SANs. Das verwundert nicht. Im Grunde genommen ist das im NAS-System enthaltene Storage-Subsystem schon in sich eine “SAN-Insel“. Schließlich besitzen NAS-Storage-Subsysteme wie bei SAN-Storage-Subsystemen SCSI- oder FC-RAID-Controller, die mehrere parallele Kanäle auch parallel mit Daten versorgen können. Allerdings ist der NAS-Speicher aus Platz- und Installationsgründen direkt an die “Embedded Intelligenz“ des NAS-Geräts angeschlossen. Man könnte den Speicher durchaus über FC vom eigentlichen NAS-Server “entkoppeln“. Die Ähnlichkeit beider Archi- tekturen führt soweit, dass die NAS-Geräte die in das SAN integrierten Tape-Libraries zum “LAN-freien-Backup“ mit verwenden können. Schließt man eines oder mehrere Tape-Laufwerke via FC-Topologie an den NAS-Server an, lassen sich die NAS-Storage-Daten sogar über ein bestehendes SAN-Netzwerk sichern und auch restaurieren. Somit wird wie bei einem SAN das LAN nicht durch Backup- und Restore-Prozesse gestört. Auch die komplette Einbindung eines NAS-Geräts in ein SAN ist nach unserer Auffassung nur noch eine Frage der Zeit. Die Vision: Als intelligentes und hoch performantes Gateway verbindet ein NAS-Gerät die NAS-Eigenschaften mit denen eines SAN-Netzwerks. Die SAN-Daten lassen sich mittels eines NAS-Kopfes, der an das SAN angeschlossen ist, extrem schnell an die LAN-Klienten ausliefern. Schon heute sind, den Netzwerkprotokoll-Overhead mit eingerechnet, bis zu 90 MByte/s an Performance realistisch. Auch könnte man die bei NAS- und SAN-Servern üblichen Cluster- und Daten-Replikationsdienste ausnutzen. Lokale NAS-Daten lassen sich so im SAN replizieren und sichern, ohne dass die Anwender davon Notiz nehmen. Bis die Hersteller die komplette Einbindung von NAS in SAN allerdings vollziehen können, gilt es noch einige Hürden zu bewältigen. Zur Zeit verhindern die unvollständige SAN-Interoperabilität und noch nicht verabschiedete SAN-Standards eine weitere Verbreitung heterogener SANs. Laut Gartner Group werden derzeit hauptsächlich homogene SAN-Netzwerke realisiert; ein offenes SAN-File-System ist momentan nicht in Sicht. Und so wird es wohl in der nächsten Zeit bei einem Nebeneinander von NAS und SAN bleiben; beide Varianten kommen gemeinsam zum Einsatz, NAS für File-Systeme der Benutzerdaten und SAN als strategische Storage-Architektur für die Speicherverwaltung insgesamt. Allerdings bleibt die Frage, wann NAS und SAN tatsächlich konvergieren, unbeantwortet. (Andreas Priessnitz/mw) Der Autor ist Senior Systems Engineer bei Auspex Systems. www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS OPEN STORAGE NETWORKING Fokussierung auf NAS und SAN reicht nicht Die eigentlichen informationsverarbeitenden Technologien treten zugunsten der informationsspeichernden in den Hintergrund. Wurden einst Data Storage Devices als Peripherie zu den eigentlichen Rechnern und Servern bezeichnet, so scheint sich heute der Trend umzukehren. Server werden – zumindest was das Investitionsvolumen anlangt – zur Peripherie neben den Datenspeichersystemen. er Trend, dass Datenspeicherungssysteme nicht mehr als reiner Satellit von Servern und Clients angesehen werden, lässt sich auch auf technologischer Ebene beobachten. Waren es über Jahrzehnte ausschließlich Direct Attached Storage Systeme, die Festplatten direkt mit den jeweiligen Server-Systemen verkabelten, sind es nun zwei Konzepte, die mit den Unzulänglichkeiten von Direct Attached Storage Devices aufräumen wollen, nämlich Network Attached Storage (NAS) und Storage Area Networks (SAN). Beide Konzepte sind angetreten mit dem Bestreben, bessere Skalierbarkeit, Erweiterbarkeit und Verfügbarkeit zu ermöglichen – und das bei zumindest gleichbleibender Performanz im Datendurchsatz. In den Diskussionen sind mitunter heftige Debatten entflammt, welches Konzept das bessere sei. Bei dem Vergleich beider Systeme auf technischer Ebene, gelangt man im Wesentlichen zu folgender Aussage: – SAN ist ein Technologiekonzept und meint Storage-Zugriff über Fibre Channel unter Verwendung von Encapsulated SCSI. – NAS ist ein Technologiekonzept und bedeutet Storage-Zugriff über TCP/IP unter Verwendung von Netzwerk-FileSystemen wie NFS, HTTP und Windows Networking. An dieser Stelle könnte die Diskussion geführt werden, dass Fibre Channel vermeintlich höheren Datendurchsatz erzielen D 184 L AN line 12/2000 kann als beispielsweise eine Ethernet-Infrastruktur. Wenn man sich allerdings die jüngsten Entwicklungen ansieht, bleibt festzustellen, dass sich durch GigabitTechnologien die Bandbreiten stark angenähert haben. Ansätze wie die 10Gb-Alliance wiederum sprechen ebenso wie die Kostenverhältnisse (sowohl für Hardware als auch im Sinne von Personalkosten für spezifisches Know-how) für die IP-basierende Infrastruktur. Dennoch scheint der Vergleich der beiden Ansätze nur aus dieser Richtung betrachtet noch ungenügend, weil nicht umfassend genug. Auch die wirtschaftliche Sichtweise bringt keine Klarheit, weil das SAN eine unternehmensrelevante Lösung ist: SAN verbindet Daten mit Servern. NAS ist eine unternehmensrelevante Lösung und verbindet Daten ebenfalls mit Servern. Die Unterscheidbarkeit, um die beiden Ansätze klar kategorisieren und damit auch bewerten zu können, ist also sowohl bei der üblichen technischen, als auch bei der wirtschaftlichen Betrachtungsweise nicht oder nur begrenzt gegeben. Auf der einen Seite ist es die Zugriffsart, die von Relevanz erscheint. Damit ist gemeint, ob die dem Storage vorgelagerten Rechnersysteme in der Lage sind, Daten auf direktem Wege in den Hauptspeicher zu laden, oder ob dies über eine intermediäre Zwischenschicht (konkreter: TCP/IP-Stacks) erfolgt. Die zweite relevante Dimension ist das Zugriffsprotokoll, das heißt, wird auf physische Datenblöcke zugegriffen oder werden logische Meta-Strukturen benötigt, also Files beziehungsweise File-Systeme. Wenn man diese beiden Dimensionen nun auf zwei Achsen aufträgt, ergibt sich folgendes Portfolio, das die vorherrschenden Technologien einordnerbar macht: An dieser Stelle mag es überraschend sein, dass ein SAN in der oberen linken Ecke erscheint und nicht in einer der Netzwerkspalten. Das ist dadurch zu be- SCSI over IP ist eher mit einem Direct-Attached-Storage-System oder mit einem SAN zu vergleichen als mit einem Fileserver oder einer NAS-Appliance. www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS gründen, dass ein Storage Area Network sich zwar netzwerk-ähnlicher Infrastruktur für die Verkabelung der Storage Devices mit den Rechnersystemen bedient, allerdings der Zugriff auf Daten trotzdem auf direktem Wege erfolgt – also vom Storage Device direkt in den Hauptspeicher des zugreifenden Systems. Hingegen soll es SCSI over IP ermöglichen, Encapsulated SCSI auf Basis von IP-Infrastrukturen zu übertragen, was einen IP-Stack als intermediär zwingend notwendig macht. Wenn man dieses Portfolio nun näher betrachtet und in den vorherrschenden SAN/NAS-Diskussionen verbleibt, stellt sich die Frage ob SCSI over IP eher NAS- oder eher SANAnsätzen entspricht? Umgekehrt ist das in Entstehung begriffene Direct Access File System (DAFS), ein ebenso schwer zuzuweisendes Konzept. Denn DAFS steht für direkten Zugriff auf File-Ebene über Virtual-Interface-Architektur (nähere Details unter www.dafscollaborative.org). Auch hier bleibt die Frage offen, ob DAFS eher einem SAN oder einem NAS gleichkommt. Diese Unklarheiten zeigen auf, dass die reine Fokussierung auf NAS und SAN nicht ausreichend ist, um die Vorund Nachteile klar auszumachen. Die Stärken und Schwächen der unterschiedlichen Konzepte sind vielmehr nur zu sehen, wenn man beide Dimensionen (Zugriffsart, Zugriffsprotokoll) betrachtet und mit den im eigenen Unternehmen vorherrschenden Rahmenbedingungen (bestehende Infrastruktur, Investitionsschutz, vorhandenes Know-how etc.) in Einklang bringt. Wer versucht, innerhalb des Portfolios Verwandtschaften herauszuarbeiten, wird feststellen, dass es eher das Zugriffsprotokoll ist, das stärker wiegt. Denn SCSI over IP ist eher mit einem Direct-Attached-System beziehungsweise mit einem SAN zu vergleichen als mit einem klassischen Fileserver oder einer NAS-Appliance. Das heißt, dass eine Betrachtung der Vor- und Nachteile von File- versus Block-LevelZugriff vielversprechender erscheint, als eine Gegenüberstellung von NAS und SAN. Die Vorteile von File-Level-Zugriff sind im Wesentlichen folgende: – Multiprotocol Data Sharing: Nur unter Miteinbeziehen des File-Systems ist es 186 L AN line 12/2000 Grenzenloser Speicherbedarf Eine aktuelle Studie der “School of Information Management and Systems” an der Universität in Berkeley spricht von 250 MByte (= 262.144.000 Byte) je Erdenbürger an Daten, die weltweit pro Jahr an Print-, Film-, optischem und magnetischem Inhalt produziert würden. Ausgehend von dieser Studie ergäben das 1,5 Milliarden GByte an Datenspeicher per annum. Analysten wie Merrill Lynch, IDC und Forrester Research verweisen darauf, dass das durch die Entwicklungen der Informationsgesellschaft ausgelöste und durch das Internet, EBusiness-Konzepte und Netzwerkbildung beschleunigte Wachstum an elektronischen Daten weiter anhalten wird. Die Fortune 500-Unternehmen steigern demnach ihren Bedarf für DataStorage-Systeme (kurz DSS) jährlich um mindestens 100 Prozent . Dieser Trend wird nicht nur anhalten, sondern weiter zunehmen. Um dem Herr zu werden, geben IT-Abteilungen von Unternehmen in den nächsten fünf Jahren mehr als die Hälfte der Hardware-Investments für Datenspeichersysteme aus. möglich, echtes Daten-Sharing im heterogenen Umfeld (NFS, CIFS) zu offerieren. Denn woher soll ein Block-Device wissen, welche Blöcke zu einem File gehören, welcher Anwender darauf zugreifen darf oder welcher Benutzer gerade welche Datei in Bearbeitung hat? Echtes Daten-Sharing, also gleichzeitiger Schreib-/Lese-Zugriff, ist ohne intelligente Zwischenschicht auf Block-Ebene nicht möglich. – Data Management: Security, Quotas, Q-Trees: Die Abbildung von Zugriffsrechten (ACLs, uid/gid) erfolgt auf logischer und nicht auf physischer Ebene, also im Filesystem und nicht in der Blockund RAID-Geometrie. Das Wissen um Ownership, Größen von Files etc. wiederum ist die Grundlage für weitere Datenmanagement-Methoden wie Quotas und Q-Trees. – Data Movement: Vol Copy, Snap Mirror: Daten zu replizieren oder zu portieren kann naturgemäß auf Block- und auf File-Ebene erfolgen. Im Vordergrund der Betrachtung steht allerdings die Granulierbarkeit der Replikation. Die SnapMirror-Technologie ermöglicht es, inkrementelle Datenänderungen auch an weit entfernte Orte zu replizieren, um effiziente, asynchrone Datenspiegelung durchführen zu können. Dazu ist es allerdings notwendig, im Besitz des File-Systems zu sein. – Data Magic: Snapshot, Snaprestore: Die Filer ermöglichen es, bis zu 31 Versionen von File-Systemen im Zugriff zu halten, ohne die Daten zwingend doppelt speichern zu müssen. Das wird dadurch erreicht, dass beispielsweise Änderungen eines Blocks eines aus drei Blöcken bestehenden Files nur dazu führen, dass der geänderte Block gespeichert wird. Solche Overhead-reduzierenden und Verfügbarkeits-erhöhenden Technologien bedingen aber die Hoheit über das File-System. Die Vorteile von Block-Level-Zugriff sind dagegen primär folgende: – Storage Devices “sprechen” in Blöcken: Um mit Festplatten, Bandlaufwerken etc. auch tatsächlich kommunizieren zu können, muss in Blöcken “gesprochen” werden. Auch NAS-Appliances greifen letztendlich auf ihre Plattenbestände im Block-Mode zu. – Device-zu-Device-Kommunikation: Der direkte Datenaustausch zwischen Storage-Devices kann als Vorteil des BlockZugriffs angesehen werden. Daten-Backup, Tape-Library-Sharing etc. sind klare “Killer-Applikationen”, die zugunsten von Block-Level-Zugriff – und damit auch von SAN-Technologien sprechen. Jeder der einzelnen Ansätze hat seine Existenzberechtigung. Im sinnvollen Zusammenspiel kann der maximale Nutzen für den Anwender – und damit für das Unternehmen – erzielt werden. Solche integrierenden Gedanken sind es, die Network Appliance dazu veranlasst haben, die “Open Storage Networking”-Initiative mit ins Leben zu rufen. (Gunther Thiel/mw) Gunther Thiel ist bei Network Appliance als Marketing Manager für Central Europe zuständig www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS SAN-MANAGEMENT-SOFTWARE SANsymphony – das virtuelle SAN Hardware und Treiber-Software für Speichernetzwerke sind seit einigen Jahren in genormter oder standardisierter Form verfügbar. Probleme bereitet allerdings das Management von großen Datenmengen in verteilten, heterogenen EDV-Systemen. Die Verwaltung der Dateien in heterogenen Systemen muss deshalb zentral organisiert werden. Diese Speicherkonsolidierung übernimmt die SAN-Management-Software SANsymphony von Datacore. weg aus dieser Problemsituation bieten SANs mit dem Fibre Channel als Übertragungsmedium. Dazu wird das Netz zweigeteilt, in einen primären LAN-Bereich, wie bisher für den Zugriff der Arbeitsstationen auf die Server, und in einen sekundären SAN-Bereich für den hochvolumigen Datentransfer zwischen den Speichereinheiten und den Servern. Jeder Bereich ist für die dort vorwiegende Betriebsart optimiert. So sind etwa Nutzlasten bei der Datenübertragung von mehr als 90 Prozent und Entfernungen von mehr als zehn Kilometer möglich. Damit diese Netztrennung und Lastverteilung problemlos vor allem in den üblichen heterogenen Installationen funktioniert, wird eine Verwaltungs-Software wie SANsymphony benötigt. ÜBERSICHT SANsymphony virtualisiert n gängigen Netzwerken wird der gesamte Datenverkehr über Ethernet unter dem TCP/IP-Protokoll abgewickelt. Bei großen Datentransfers, vielen Anwendern an Arbeitsstationen und geringer Übertragungsleistung gibt es massive Engpässe im betrieblichen Ablauf. Der Datenverkehr im “shared” Ethernet ist sehr ineffektiv bei typischerweise nur etwa 30 Prozent Nutzlast. Im “switched”-Betrieb kann die Auslastung etwa verdoppelt werden. Die Kabellängen sind begrenzt mit etwa 100 Meter I für Kupferleitungen und etwa 500 Meter bis zwei Kilometer für Glasfaserverbindungen. Als Ausweg wird üblicherweise das Netz in Subnetze für Arbeitsgruppen unterteilt. An den Übergängen zwischen den Subnetzen entstehen aber ebenfalls wieder Engpässe. Bei einem stark ausgelasteten Netz ist unter den hier beschriebenen Voraussetzungen keine vollständige Datensicherung mehr möglich, da meist sehr viel weniger als acht Stunden in der Nacht zur Verfügung stehen. Einen Aus- SANsymphony virtualisiert alle Speicherressourcen, damit unterschiedliche Rechnerplattformen und Betriebssysteme reibungslos zusammen arbeiten können 188 L AN line 12/2000 alle Speicherressourcen, damit unterschiedliche Rechnerplattformen und Betriebssysteme reibungslos zusammenarbeiten. Für die Datensicherung werden die zu sichernden Daten einem Backup-Server unter Veritas-, Legato- oder ArcserveBackup-Software zugeteilt. Mit dieser Methode ist “LAN-free”- oder “Server-less”Backup ohne weiteren Aufwand möglich. Darüber hinaus kann der Anwender auf “Knopfdruck” zusätzlichen Speicher einbinden (ohne Reboot) und auf entfernte Systeme zugreifen. Er wird von Verwaltungsaufgaben, wie beispielsweise dem Anlegen von Sicherungskopien, befreit. Durch die Verwaltungsvereinfachung kann der Speicheradministrator ein erheblich größeres Datenvolumen flexibel managen und den verschiedenen Applikationen und Anwendern zur Verfügung stellen. STRUKTUR Ein SAN besteht aus Speichereinheiten und Anwendungs-Servern sowie der dazwischen liegenden Infrastruktur aus HBAs (Host-Bus-Adapters), Kabeln, Hubs und Switches. Einige Server sind für besondere Aufgaben optimiert. Dazu gehören Backup-Server für die Datensicherung oder Datenspeicher-Server. SANsymphony läuft auf dafür konfigurierten Storage-Domain-Servern (SDS). Die Software erzeugt ein virtuelles SAN mit einem Storage-Domain-Server, das von zen- www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS traler Stelle aus verwaltet wird. Die zentrale Bedienung kann auch über eine entfernt aufgestellte Management-Arbeitsstation über das LAN erfolgen. Ein oder mehrere SDS unter Windows NT übernehmen die Verwaltung von heterogenen Systemumgebungen (Unix/Linux, Windows NT usw.). Es können auch herkömmliche Ressourcen (Parallel-SCSI, RAIDs, JBODs etc.) eingebunden werden. In der Minimalausstattung (entry-level Server Edition) wird ein gemeinsamer Satz von Speicherlaufwerken von einem einzelnen StorageDomain-Server gesteuert. Mehrere Speichergruppen in einem einzigen SAN werden auch unterstützt. Die “SANsymphony Network Edition” wird für größere Netze und Speichergruppen mit mehreren SDS eingesetzt. Wie der Begriff “Suite” erkennen lässt, besteht SANsymphony aus einer Anzahl von Dienstleistungsmodulen wie beispielsweise SANcentral (zentrale Verwaltung), SANmapper (Konfiguration), SANadministrator (Zugriffsrechte), SANcache (Zugriffsbeschleunigung), TimeVantage (Augenblickskopie) und PCmirrors (Spiegelung). Andere Programme innerhalb der SANsymphony-Architektur sind: SANcentral Development, TimeVantage Snapshot und PCmirrors. Die SANsymphony-Software konsolidiert alle in einem System verfügbaren Speicher-Subsysteme von unterschiedlichen Herstellern in einen einzigen virtuellen Speicher (Shared Storage). Ein oder mehrere Storage-Domain-Server stellen diesen Gesamtspeicher in den benötigten Mengen den Anwendungen unter den verschiedenen Betriebssystemen (zum Beispiel Windows, Unix/Linux, Netware) zur 190 L AN line 12/2000 Verfügung. Die Server sind üblicherweise mit den Speichereinheiten und untereinander über Fibre-Channel-Verbindungen vernetzt. Es spielt keine Rolle, ob dies über Punkt-zu-Punkt-, Hub- oder Switch-Verbindungen geschieht. Datacore hat auch Dienstprogramme, um Speicher mit den älteren Schnittstellen ATA/EIDE, SCSI oder SSA nahtlos in ein FC-SAN einzubinden. Diese älteren Einheiten werden an die Storage-Domain-Server angeschlossen und dem System als FC-Geräte präsentiert. Das gilt insbesondere für Bandlaufwerke mit SCSI-Schnittstelle, die somit keine der sonst üblichen SCSI-FC-Bridges benötigen. Der Gesamtspeicher kann den Anwendungen – entsprechend den Anforderungen – in beliebiger Größe unter verschiedenen Betriebssystemen passend zugeteilt werden. Neu hinzugefügte Speicher oder Speichergruppen (RAID, JBOD) können von unterschiedlicher Größe sein und von verschiedenen Herstellern stammen. Bei Zu- oder Abgang von Speichereinheiten sind weder eine Rekonfiguration noch ein Re-Boot nötig. Dateibereiche lassen sich auch, mit entsprechenden Rechten versehen, von mehreren Servern nutzen. Der berechtigte Administrator teilt unabhängig von physikalischen Aufteilungen den Speicher mit Mausklicks zu. Die zugewiesenen Bereiche können auch größer oder kleiner als einzelne Platten oder RAIDGruppen sein. Wird ein Computer ausgewechselt, dann muss das System nicht neu konfiguriert oder installiert werden. Beim Computertausch in einem von SANsym- phony verwalteten System ist dies ähnlich einfach wie ein Plattentausch. Die FCKanäle am SDS werden automatisch entdeckt. Die Caching-Technik von SANsymphony kann den Betrieb mit JBODs und Plattenarrays fast immer beschleunigen. Die SANcentral-Überwachungs-Software hilft bei der Optimierung durch die grafische Anzeige der Auslastung in Echtzeit. Der Durchsatz in einem einigermaßen optimal konfigurierten System ist in der Tabelle auf Seite 191 (Ergebnisse des Iometer-Tests von Intel) zu sehen. Die Leistung flacht auch bei großen Systemen nicht nennenswert ab. Mit einem Augenblicks-Schnappschuss (point-in-time snapshot) können logische Speicherbereiche ohne Zeitaufwand bei den Anwendungs-Servern abgebildet werden. Der Normalbetrieb läuft unbeeinflusst und unverzögert weiter. So können andere Server mit konsistenten Kopien arbeiten ohne immer komplette Systemumgebungen permanent mitführen zu müssen. Für die Datensicherung während des laufenden Betriebs ist diese Funktion unerlässlich, da sonst ein komplettes Backup bei Dauerbetrieb nicht möglich wäre. Leistung, Sicherheit und Kosten lassen sich als Quality of Service je nach Anforderung skalieren. So kann den Anwendungen mit hoher Leistungsanforderung der schnellste Speicher zugewiesen werden. Andere Anwendungen mit geringeren Anforderungen werden mit preisgünstigeren Rechnern, Speichereinheiten und Infrastruktur betrieben. Die Anpassung geschieht über die Zuweisung von logischen Speicherbereichen, ohne dass ein bestimmter Rechner ausgetauscht werden muss. Die Auswahl von CPUs, CacheGröße, Speicherleistung und Adapterkarten lässt sich flexibel an die Anforderungen anpassen. SANsymphony bietet verschiedene Möglichkeiten beim Ausfall von Komponenten, Übertragungswegen oder Rechnersystemen, den Betrieb unterbrechungsfrei und möglichst ohne grossen Leistungsverlust weiter zu führen. So kann etwa das Ereignisjournal überwacht werden und automatisch SNMP-Alarme auslösen. www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Diese lassen sich auch per E-Mail verschicken. Spiegelung, Schnappschüsse, Journal-gesteuerter Wiederanlauf, redundante I/O-Kanäle und weitere Funktionen sichern unternehmenswichtige Teile des Systems vor Ausfällen. Je nach Sicherheitsanforderung können RAID-Systeme mit hoher Redundanz und JBODs (Just a Bunch Of Disks) gemischt eingesetzt werden. Die Spiegelung von logischen Speicherbereichen kann auch über große Entfernungen im FC-Netz erfolgen. Das erledigen die SDS ohne Mithilfe durch die Anwendungs-Server. Der gesicherte Zugriff wird für das Gesamtsystem gewährleistet. Rechner, die bestimmte Zugriffs-Software nicht unterstützen, können trotzdem nicht auf fremde Dateien zugreifen. Die Redundanz in Systemen mit hoher Verfügbarkeit wird mit N+1-Konfigurationen erreicht, was preisgünstiger als die 2N-Technik (Spiegelung) ist. SPEZIFIKATIONEN Der Kern der SAN- symphony-Management-Software läuft auf Windows-NT-Servern, die wegen www.lanline.de ihrer speziellen Aufgaben auch SDS (Storage- Domain-Server) genannt werden. Wintel-Server mit zwei oder mehr Prozessoren (ab 200 MHz) mit mindes- HBA in Target Mode am SDS 1 x QLogic 2100 1 x QLogic 2200 8 x QLogic 2200 I/O/s 4500 7500 53000 tens 192 MByte Hauptspeicher (2 GByte maximal) und mindestens 64 MByte (1,5 GByte maximal) freiem Speicher werden benötigt. Windows-NT-4.0Server mit Service- Pack-5 oder höher kommt für den Betrieb eines SDS zum Einsatz. Der Anschluss an das FC-Netz erfolgt über die Host-Bus-Adapter (HBA) 21xx(A) oder 22xx(A) von Qlogic. Festplatten werden über jeden vom jeweiligen Rechner unterstützten FCoder SCSI-Host-Bus-Adapter mit PCISchnittstelle angeschlossen. EINSATZBEREICHE Neben Windows NT 4.0 und Windows 2000 werden auch Sun Solaris, HP/UX, IBM AIX, Netware 5.0 und Red Hat Linux unterstützt. Die üblichen SAN-Komponenten, wie zum Beispiel die meisten FC-Switches und FCHubs, lassen sich in einem SAN mit SANsymphony betreiben. Die nicht am Fibre Channel angeschlossenen Komponenten werden durch ein Hilfsprogramm als virtuelle FC-Geräte in SANsymphony eingebunden. Der aktuelle Stand der kompatiblen Hardware und Betriebssysteme kann über die Website von Datacore (www.da tacoresoftware.com) sowie von TIM (www.TIM.de) und den SAN Solution Providern (www.SAN-Solution-Provider. de) abgefragt werden. (Gerold Hahn//mw) Weitere Informationen: TIM Tel.: 0611/ 27 09 53 Web: www.tim.de Datacore Software Web: www.datacoresoftware.com L AN line 12/2000 191 SCHWERPUNKT: STORAGE AREA NETWORKS Anbieter: Fibre-Channel-Switches Brocade Communications Systems/Basis Brocade Communications Systems/Controlware Brocade Communications Systems/IQ products Dell Computer Gadzoox Networks Gadzoox Networks/ Advanced Unibyte Gadzoox Networks/ Netpoint regio Gadzoox Networks/CPI Telefon Produkt 001/503/639/6700 ACI-2048-F32-2 089/97007252 Silkworm 2010 Silkworm 2040 Silkworm 2050 Silkworm 2100 Silkworm 2210 Silkworm 2240 Silkworm 2250 Silkworm 2400 Silkworm 2800 089/358736-0 Silkworm-Familie Preis in DM ab 4995 $ a.A. a.A. a.A. a.A a.A a.A. a.A. a.A. a.A. a. A. 06074/8580-0 Silkworm-Familie a.A. 089/9449400 Silkworm-Familie a.A. 0180/5224035 089/92404120 07121/483-105 Powervault 51F Powervault 56F Capellix 2000 Capellix 2000 ab 20.205 ab 36.885 ab 3000 $ a.A. 0761/15263-0 Capellix 2000 a.A. 089/962441-60 Capellix 2000 C Capellix 2000 F Capellix 2000 G Capellix Capellix 3000 6859 13270 9150 a.A. ab 10.500 $ Gadzoox Networks/Qunix 0711/7796563 Gadzoox Networks 089/92404120 www.lanline.de Hersteller/Anbieter Gadzoox Networks/ Advanced Unibyte Gadzoox Networks/ Argus Computersysteme Gadzoox Networks/CPI Gadzoox Networks/ Netpoint regio Inrange Mcdata/Comparex Qlogic/Advanced Unibyte Telefon 07121/483-105 Produkt Capellix 3000 Preis in DM a.A. 0621/33817-22 Capellix 3000 18.000 089/962441-60 0761/15263-0 Capellix 3000 Capellix 3000 22.899 a.A. 089/427411-24 0621/4009-261 07121/483-105 SGI 089/46108180 Storage Tek/Netpoint regio Storage Tek/Mainstore Service + Distribution Vixel Corporation Vixel Corporation/ Netpoint regio Vixel Corporation Vixel Corporation/Mosaic Geva Vixel Corporation/ Netpoint regio Vixel Corporation Vixel Corporation/ 0761/152630 06028/4055-0 FCI 9000 ED5000 FC Director SANbox 8 SANbox 16 FC-Switch-8 FC-Switch-16 Switch 4108/4116 Switch 4108/4116 a.A. a.A. a.A. a.A. 38.240 69.930 a.A. a.A. 06056/901035 0761/15263-0 Vixel 7100 Vixel 7100 ab 6995 $ a.A. 06056/901035 02404/5500-0 Vixel 7200 Vixel 7200 11.995 $ a.A. 0761/15263-0 Vixel 7200 a.A. 06056/901035 0761/15263-0 Vixel 8100 Vixel 8100 8495 $ a.A. Netpoint regio ▼ Hersteller/Anbieter Apcon Brocade Communications Systems LANline 12/2000 191 SCHWERPUNKT: STORAGE AREA NETWORKS Marktübersicht: Fibre- ● ● ● ● Brocade Communi- Silkworm 2010 cations Systems Dell Computer ● andere ● ● 32 ● ● ● full-duplex full line-speed switching ACI-2048-F32-2 andere Media-Typen GBICs hot-plugable Short-wave Laser Long-wave Laser Kupfer Apcon andere F_Port FL_Port E_Port Stealth Port Produktname Port-Typen Anzahl Fibre Channel Ports Hersteller blocking Switch-Core non-blocking switched arbitrated loop point-to-point unterstützte Topologien Performance (MBit/s per Port) System 1062,5 ● ● ● 1024 ● ● +1 GBIC 1024 ● ● +1 GBIC 1024 ● ● Silkworm 2040 ● ● 8 ● ● ● Silkworm 2050 ● ● ● 8 ● ● ● Silkworm 2100 ● ● 8 ● ● 1024 ● ● Silkworm 2210 ● ● 16 ● ● 1024 ● ● Silkworm 2240 ● ● 16 ● ● ● 1024 ● ● Silkworm 2250 ● ● ● 16 ● ● ● ● 1024 ● ● Silkworm 2400 ● ● ● 8 ● ● ● ● 1024 ● ● Silkworm 2800 ● ● ● 16 ● ● ● ● 1024 ● ● Powervault 51F ● ● 8 ● ● ● ● ● ● ● ● 1062,5 ● ● Powervault 56F ● ● 16 ● ● ● ● ● ● ● ● 1062,5 ● ● ● ● ● bis 11 Capellix 2000 C ● ● ● ● Capellix 2000 F Capellix 2000 G Gadzoox Networks Capellix 2000 ● +1 GBIC ● ● ● ● ● ● 1024 ● 8 ● 1024 ● ● ● ● ● 8 ● 1024 ● ● ● ● ● 8-11 ● ● ● ● ● 1024 ● ● ● ● ● ● Sinisar 1024 ● ● ● ● ● ● ● 1024 ● ● bis 33 AL-Port ● ● ● Capellix 3000 ● ● ● ● bis 33 Inrange FCI 9000 ● ● ● ● 64 ● ● ● Mcdata ED5000 FC Director ● ● 32 ● Qlogic SANbox 8 ● ● ● ● 8 ● ● ● SANbox 16 ● ● ● ● 16 ● ● ● FC-Switch-8 ● ● ● ● 8 ● ● ● ● 1062,5 ● FC-Switch-16 ● ● ● ● 16 ● ● ● ● 1062,5 ● Switch 4108 ● ● ● ● 8 ● ● ● Autosensing ● ● ● ● ● 1062,5 ● Switch 4116 ● ● ● ● 16 ● ● ● Autosensing ● ● ● ● ● 1062,5 ● Vixel Corporation Vixel 7100 ● ● ● ● 8 ● ● ● ● Stealth Loop-3 ● ● 1062,5 ● ● Vixel 7200 ● ● ● ● 16 ● ● ● ● Stealth Loop-3 ● ● 1062,5 ● ● FC-Switch 7200 ● ● ● ● Fabric 16 ● ● ● ● ● ● ● ● ● 1062,5 ● Vixel 8100 ● ● ● ● 8 ● ● ● ● ● ● 1062,5 ● ● SGI Storage Tek 192 LANline 12/2000 TL-Port, SL-Port ● ● ● ● ● ● 1062,5 ● ● ● ● ● 1063 ● ● TL-Port, SL-Port ● ● 1062 ● ● TL-Port, SL-Port ● ● 1062 ● ● www.lanline.de SCHWERPUNKT: STORAGE AREA NETWORKS Channel-Switches architektur SNMP Telnet Web-basierend IETF FC Management MIB Fabric Element MIB Port-Control End-to-End Fabric Management Zoning Anzahl Frame Buffers per Port Maximum Frame Size (Byte) 32 8 <2 2 ● ● ● 2112 224 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● 8 <2 2 ● ● ● 2112 224 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● 8 <2 239 ● ● ● 2112 224 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● sonstige andere ● In-band Ethernet 10/100 seriell Out-band anderer 10 FC-AL FC-AL-2 FC-FLA FC-GS-2 FC-FG FC-PH FC-PH 2 FC-PH 3 FC-PLDA FC-SW FC-IV 1,0625 Class 2 Class 3 Class F skalierbar bis (Anzahl Switches) ManagementZugriff Fabric-Latenzzeit (Mikrosekunden) unterstützte Fibre-Channel-Standards Switch-Bandbreite (GBit/s) Class of Service Management ● ● 8 <2 2 ● ● ● 2112 224 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● 16 <2 2 ● ● ● 2112 448 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● 16 <2 2 ● ● ● 2112 448 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● 16 <2 239 ● ● ● 2112 448 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● 8 <2 239 ● ● ● 2112 224 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● 16 <2 239 ● ● ● 2112 448 ● ● ● ● ● ● ● ● ● ● ● FSPF ● ● ● ● ● ● ● ● Fabric Watch ● ● ● ● 8 <2 239 ● ● ● 2112 16 ● ● ● ● ● ● ● ● ● ● ● ● Powervault 51F Switch Manager 16 <2 12 239 ● ● ● 2112 16 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 2 ● ● ● ● ● ● ● ● FC-SW2 ● ● ● ● ● ● ● ● ● ● 12 <0,5 4 ● ● ● ● ● ● ● ● FCP ● ● ● ● ● ● ● 12 <0,5 4 ● ● ● ● ● ● ● ● FCP ● ● ● ● ● ● ● 12 <0,5 4 ● ● ● ● ● ● ● ● FPC ● ● ● ● ● ● ● 28 <0,5 4 ● ● ● ● ● ● ● FC-SW2, FC-P ● ● ● ● ● ● ● ● ● 2 ● ● ● ● ● ● ● ● FC-SW2 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● FC-Tape, Fibre Channel 28 64 <0,6 ● 2048 ● ● ● ● ● ● ● ● ● TFTP, SES, GS3 ● ● ● ● ● EFC Management Software ● ● ● ● ● Element MIB, alle ANSIStandards 64 <2 36 ● ● ● ● ● ● ● 8 0,6 1-X ● ● 2148 8 ● ● ● ● ● ● ● ● ● ● ● FC-Tape ● ● ● ● ● ● ● ● ● 16 0,6 1-X ● ● 2148 8 ● ● ● ● ● ● ● ● ● ● ● FC-Tape ● ● ● ● ● ● ● ● ● 8 <2 239 ● ● ● 2112 28 ● ● ● ● ● ● ● ● ● ● ● IPFC ● ● ● 16 <2 239 ● ● ● 2112 28 ● ● ● ● ● ● ● ● ● ● ● IPFC ● ● ● 239 ● ● ● 2112 224 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 239 ● ● ● 2112 448 ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● Frontpanel ● ● ● ● ● ● 16 <2 239 ● ● 2112 32 ● ● ● ● ● ● ● ● ● ● FCP ● ● ● ● ● ● SAN Insite ● ● ● 32 <2 239 ● ● 2112 32 ● ● ● ● ● ● ● ● ● ● FCP ● ● ● ● ● ● SAN Insite ● ● ● 239 ● ● 2112 ● SAN Insite ● ● ● 239 ● ● 2112 ● SAN Insite ● 32 16 <3 www.lanline.de ● ● 32 ● ● ● ● ● ● ● ● ● ● FCP ● ● ● ● LANline 12/2000 ● 193 SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS FLEXIBEL UND DENNOCH PRODUKTIV VIRTUAL PRIVATE NETWORKS VIRTUAL PRIVATE NETWORKS FÜR UNTERNEHMEN Ein virtuelles privates Netzwerk (VPN) verbindet verschiedene Netzwerke über nicht vertrauenswürdige oder öffentliche Netze so, dass es für die Anwender und die Anwendungen in den einzelnen Netzen den Anschein eines einzigen Netzwerks macht. Beim Einrichten einer solchen Lösung sind allerdings etliche Aspekte wie zum Beispiel Sicherheit , Abrechnungsmethoden und leichte Bedienarbeit zu berücksichtigen. 194 L AN line 12/2000 www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Das “virtuell” in Virtual Private Networks bedeutet, dass es nur den Anschein vermittelt, ein einziges Netz zu sein, in Wirklichkeit aber aus verschiedenen unabhängigen Netzen besteht. “Privat” heißt, dass die Kommunikation über nichtvertrauliche Netze geheim und über öffentliche Netze sicher geführt wird. Das “Netzwerk” besteht in diesem Zusammenhang aus einer Gruppe von Computern, die über Protokolle miteinander kommunizieren. Dabei können auch einzelne, separate Computer wie Heimarbeits-PCs oder die Laptops von mobilen Vertriebsmitarbeitern oder Technikern als separate Netzwerke angesehen werden, wenn sie in einem VPN zum Einsatz kommen. Bildlich gesprochen ist ein VPN ein Netz von Tunneln, die unter Nutzung der Verbindungswege wie zum Beispiel des Internets ein virtuelles Firmennetz bilden. Die Tunnelendpunkte markieren den je- weiligen Übergang vom LAN ins Internet. Dieser Übergang lässt sich über einen VPN-fähigen Router/Gateway realisieren. Auch wenn manche sagen, es gibt ja auch VPN-fähige Firewalls oder RAS-Server als Übergänge, stimmt das zwar von der Funktionalität her, aber letztlich sind sie neben ihrer Aufgabe als Firewall oder RAS-Server ebenfalls VPN-fähige Router. Der Begriff des Tunnels oder des Tunneling stellt nur einen Kunstbegriff für das Einpacken von Datenpaketen dar. Dabei erhalten die Pakete einen neuen IP-Header und werden gleichzeitig verschlüsselt, damit ein sicherer Transport der Informationen über öffentliche Netze zum Empfänger erfolgt. Auf der Empfangsseite entfernt das Gateway den zusätzlichen IP-Header, entschlüsselt das Datenpaket und leitet es an den Empfänger weiter. Liegt ein Endpunkt des Tunnels in einem Rechner, so spricht man von Client-zuLAN-Koppelung, liegen die Endpunkte in Security Gateways, handelt es sich um eine LAN-zu-LAN-Koppelung. ANWENDUNGSSZENARIEN MODERNER VPN-TECHNOLOGIE Die Entwicklung findet in großen Unternehmen heute nicht mehr nur an einem Standort statt. Entwickler müssen folglich von den verschiedensten Orten auf die R&D-Datenbanken und Entwicklungswerkzeuge zugreifen. Mobile Vertriebsmitarbeiter und Berater benötigen außerdem aktuelle Daten über Warenbestände und Produktionsdaten; sie müssen in der Lage sein, von unterwegs EMails abzurufen und Aufträge zu erteilen. Zudem verfolgen viele Unternehmen zur Zeit die Strategie, sich auf ihre Kernkompetenz auszurichten, um so dynamischere und anpassungsfähigere interne Strukturen zu erhalten. Das führt zum Outsourcing von nachgeordneten betriebsinternen Dienstleistungen. Da inzwischen Millionen von Organisationen mit dem Internet verbunden sind, verliert der Standort möglicher Geschäftspartner ständig an Bedeutung. Das Internet stellt verhältnismäßig gute Bedingungen für weltweite Outsourcing-Strategien her. In der Praxis funktioniert das aber nur über VPN-Lösungen, damit Partner außerhalb des Betriebs einen www.lanline.de L AN line 12/2000 195 SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS kontrollierten und sicheren Zugang zu den internen Netzwerkressourcen erhalten, die sie zum Erfüllen ihrer Aufgaben benötigen. Ähnliches gilt für den Zugang von Geschäftspartnern oder Kunden zu vorgegebenen Diensten und Daten. Das Netz ermöglicht bessere Dienstleistungen und eröffnet neue Geschäftsfelder. Moderne “Advanced-VPN-Technologie” kann die Rechte einzelner Anwender detailliert fest- ein Unternehmen gegen Angriffe zu schützen. Advanced-VPN-Technologie basiert auf starker Verschlüsselung und User-Authentisierung. Zur Zeit gilt bei asymmetrischer Verschlüsselung eine Schlüssellänge von 1024 Bit als stark, bei symmetrischer Verschlüsselung liegt der entsprechende Wert bei 128 Bit. Das Kompromittieren solcher Schlüssel kann bei der heutigen Rechnertechnik und den heutigen Ressourcen einige Jahrzehnte in Anspruch Bild 1. Weltweites Unternehmensnetz via VPN legen und bei Bedarf sogar zeitlich begrenzen. Es spricht aber auch ein wirtschaftlicher Aspekt für VPNs: Standleitungen und Ferngesprächsverbindungen sind nach wie vor teuer. Über ein VPN kommt für die Kommunikation das Internet zum Einsatz, auf das fast an jedem Ort der Welt verhältnismäßig kostengünstig zugegriffen werden kann, da nur Gebühren für die Verbindung mit dem nächsten InternetProvider anfallen. Der Preisvorteil hängt natürlich von den Entfernungen ab. Untersuchungen der Infonetics Research Inc. ergaben einen geschätzten Kostenvorteil von 20 bis 47 Prozent bei der Nutzung der VPN-Technologie im Gegensatz zu Wählleitungen. Bei Remote- und Heimarbeitsszenarien errechnete sich sogar ein Kostenvorteil von 60 bis 80 Prozent. Neben den hier aufgeführten Vorteilen und Einsatzbereichen stellt die Sicherheit nicht nur eine Anforderung an das VPN dar, sondern ist selbst eine Funktion, die für die Nutzung der VPN-Technologie spricht. Ein VPN lässt sich dazu einsetzen, 196 L AN line 12/2000 nehmen. VPN-Technologie lässt sich auch dazu nutzen, die Kommunikation über Wähl- oder Standleitungen absichern. Das bringt Vorteile, wenn etwa eine Organisation den Staaten oder Telefongesellschaften, durch deren Verantwortungsbereich ihre Kommunikation abläuft, misstraut. Zusätzlich zu der Absicherung der Kommunikation bietet die Advanced-VPNTechnologie auch User-Authentisierung und Zugangskontrolle mittels Public-KeyInfrastruktur (PKI) und Smartcard-Technologie. Advanced-VPN bringt also bei sorgfältiger Planung und Implementierung mit starker Verschlüsselung und sicherem Schlüsselmanagement mehr Sicherheit als herkömmliche Methoden. Eine Public-Key-Infrastruktur besteht aus einer Reihe von Sicherheitsdiensten, die in einem verteilten Computersystem den Einsatz der Public-Key-Kryptographie in Verbindung mit Zertifikaten ermöglichen. Die einzelnen Sicherheitsdienste einer PKI sind das Schlüsselmanagement (Schlüssel-Update, Schlüssel-Recovery), das Zertifikatsmanagement (Generierung von Zertifikaten und Revokationslisten) und das Policy-Management. Die Public-Key-Kryptographie erzeugt zwei verschiedene Schlüssel, einen privaten und einen öffentlichen. Der private Schlüssel muss sicher aufbewahrt und vor fremdem Zugriff geschützt werden, während der öffentliche Schlüssel jedem zur Verfügung steht. Der private Schlüssel lässt sich nicht vom öffentlichen ableiten. Eine mit dem privaten Schlüssel chiffrierte Nachricht, kann nur mit dem entsprechenden öffentlichen Schlüssel dechiffriert werden oder umgekehrt. Diese Technik kommt beispielsweise zur User-Authentisierung oder zum Erzeugen digitaler Signaturen zum Einsatz. Die Arbeit mit asymmetrischen Algorithmen ist sehr rechenintensiv und wird deshalb nur beim Aufbau einer sicheren Kommunikation und für die Übertragung des symmetrischen Schlüssels zum Verschlüsseln der Kommunikation verwendet. Ein digitales Zertifikat bildet das elektronische Äquivalent zu einem Personalausweis. Die wichtigste Aufgabe des Zertifikats liegt darin, den Usernamen unzweifelhaft und in standardisierter Form mit dem öffentlichen Schlüssel zu verbinden, um damit eine effiziente und sichere Verteilung der öffentlichen Schlüssel zu realisieren. Eine “Certificate Authority” (CA) generiert die Zertifikate und sichert die darin enthaltenen Daten über eine digitale Signatur. Zertifikate kommen mittlerweile weitläufig in Security-Lösungen zum Einsatz, wie etwa im sicheren E-MailVerkehr und eben auch in VPN-Lösungen. Bild 2 zeigt ein solches Zertifikat. Es kann den Public Key des Inhabers, den Namen des Inhabers, den Namen der CA, die Gültigkeitsperiode des Zertifikats, das Format des Zertifikats sowie weitere Attribute enthalten. Wichtig ist auf jeden Fall, dass das Zertifikat nur die Identität des Inhabers sicherstellt. Die UnternehmenssicherheitsPolicy hat festzulegen, welche Zugriffsrechte der jeweilige Zertifikatsinhaber letztendlich erhält. Die CA muss eine vertrauenswürdige Institution sein. Sie übernimmt die Verantwortung für das Administrieren der www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Bild 2. Prinzip eines digitalen Zertifikats Zertifikate, für das Erstellen der Sicherheits-Policy in Bezug auf die Zertifikate, für das sichere Verteilen des eigenen öffentlichen Schlüssels (Public-Key) an andere und für das Bereitstellen von Zertifikats-Revokationslisten (CRLs). Eine CA signiert die von ihr ausgestellten Zertifikate mit ihrem eigenen privaten Schlüssel. Personen, Anwendungen und Systeme, die Zertifikate nutzen, bestätigen deren Gültigkeit, in dem sie die Signatur des Zertifikats mit dem öffentlichen Schlüssel der CA verifizieren. CAs sind hierarchisch organisiert, das heißt, der Root-CA an der Spitze vertrauen alle. Sie zertifiziert dann die CAs unter sich und schafft somit für diese die Vertrauensgrundlage. Bild 3 zeigt das Generieren der Schlüssel und Zertifikate. Nach dem Erzeugen der Schlüssel wird in diesem Beispiel der private Schlüssel sicher an den Anwender “Bob” übertragen. Es wäre auch möglich, dass Bob die Schlüssel selbst generiert, das hängt letztlich von der Security-Policy der CA ab. Diese Policy legt ebenfalls fest, wie Bobs Identität überprüft wird, wenn er ein Zertifikat anfordert. Bobs Public Key landet sowohl in seinem Zertifikat, als auch in einem für jedermann öffentlich zugänglichen Directory. Wenn nun Anwenderin “Alice” oder die von ihr eingesetzte Applikation Bobs Zertifikat nutzen will, kann sie dieses von dem öffentlichen Verzeichnis herunterladen. 198 L AN line 12/2000 Sie hat dabei allerdings zu prüfen, ob das Zertifikat noch gültig ist. Um sicherzustellen, dass Bob und Alice mit der CA kommunizieren können, müssen sie Zugriff auf das Zertifikat der CA erhalten, welches den Public-Key der CA enthält. Als CA kommen beispielsweise Abteilungen innerhalb einer Organisation, Behörden oder “Trusted Third Parties” zum Einsatz. Zu den weltweit operierenden Third Party CAs gehören Verisign, Entrust, D-TRUST und TC-Trust-Center. Für Anwendungen, bei denen die User Mitglieder einer fest eingrenzbaren Gruppe sind, bringt der Aufbau einer internen PKI mit CA-Diensten wegen des geringeren Verwaltungsaufwands Vorteile. Zum Authentisieren vieler Anwender, die unter Umständen keine Beziehung mit dem Unternehmen haben, bietet im Gegensatz dazu eine öffentliche PKI den größeren Nutzen. Ein solches Szenario kommt beispielsweise zustande, wenn Kunden oder Subunternehmer in der Lage sind, auf Teile eines Unternehmensnetzes zuzugreifen. Der größte “Feind” der Systemsicherheit ist die Komplexität. Je komplexer das System wird, desto schwieriger lässt es sich absichern und verwalten. In komplexen Systemen mit umfassenden Konfigurationsmöglichkeiten besteht große Gefahr für menschliche Fehler und Pro- grammfehler, was letztendlich zu erheblichen Sicherheitsrisiken führt. Integriert ein Hersteller, wie zum Beispiel bei Windows 2000, Sicherheitskomponenten in Betriebssysteme, so wächst mit dem Grad der Komplexität und der Quantität des Programmcodes das Risikopotenzial, das aus Bugs und undokumentierten Features herrührt. Gleiches gilt, wenn Sicherheitslösungen in Anwendungen integriert werden, da die Sicherheit ein hohes Maß an Kompetenz erfordert. Deshalb lässt sich ein hoher Sicherheitsgrad besser erreichen, wenn die Systeme einfach aufgebaut, gut dokumentiert und unabhängig von den Anwendungen entworfen und implementiert sind. Den gleichen Anspruch sollte die Security Policy erfüllen. So gilt die Grundregel, dass kein Sicherheitssystem zum Einsatz kommen darf, wenn die Mitarbeiter die Sicherheits-Policy nicht verstehen oder die eingesetzten Lösungen zu komplex sind. VPN-Lösungen umfassen in der Regel die Nutzung unsicherer Netze für eine sichere Kommunikation. Um die damit verbundenen Risiken abzufedern, sind folgende Sicherheitsanforderungen zu erfüllen: Die “Authentisierung” vermeidet, dass jemand vorgibt ein anderer zu sein als er ist. Authentisierung ist ein wichtiger Bestandteil der IT-Sicherheit, die benötigt Bild 3. Der Umgang mit den Diensten einer CA www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS wird bei der Zugangskontrolle, bei der Festlegung, wer Informationen erhalten oder verändern darf und wer die Kostenverantwortung trägt. Authentisierung steht ebenfalls am Anfang beim Aufbau eines sicheren Kommunikationstunnels. “Datenintegrität” verhindert die unerlaubte Änderung von Daten und Informationen. Sie wird durch das Verbinden von Einweg-Hashalgorithmen mit dem privaten Schlüssel erreicht. “Vertraulichkeit” macht unautorisierten Dritten das Lesen und die Interpretation des Inhalts von Daten unmöglich. Dazu kommt Kryptographie zum Einsatz. Die “Nicht-Bestreitbarkeit” von Kommunikation oder IT-Aktivitäten verhindert schließlich Fälle, in denen Personen oder Systeme den Versand oder Empfang einer Nachricht oder den Zugang auf bestimmte Netzwerkressourcen leugnen. Deshalb sollten die Logging-Daten bei Transaktionen in einem VPN-Server überwacht und www.lanline.de Bild 4. Blockdiagramm Crypto IP gesichert werden, um die Bestreitbarkeit von Zugriffen auf das Netz unmöglich zu machen. SICHERE PROTOKOLLE Im Wesentlichen bilden vier Protokolle die Basis für den Aufbau eines Internet-VPNs. Diese vier Protokolle lassen sich unterscheiden in Protokolle der Schicht 2 und 3 des OSI-Modells. SSL-basierte Verschlüsselung (wie HTTPS oder SSH) sind keine VPN-Protokolle, da mit ihnen Anwendungen sicher miteinander kommunizieren und nicht – wie für VPNs definiert – Netze. In der Schicht 2 ist zunächst das PPTP (Point to Point Tunneling Protocol) zu nennen, welches als eine Art Erweiterung des PPP (Point to Point Protocol) eine erste Re- L AN line 12/2000 199 SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS alisierung eines VPN-Tunnelings darstellt. Im Rahmen der IETF (Internet Engineering Task Force) wurde das L2TP (Layer 2 Tunneling Protocol) entwickelt, welches auf Eigenschaften des PPTP und des L2F (Layer 2 Forwarding Protocol der Firma Cisco) aufbaut. PPTP und L2TP können als Layer-2Protokolle verschiedenste Layer-3-Protokolle wie IP, IPX oder NetBEUI übertra- tuellste Algorithmen eingesetzt werden können. IPSec besteht nicht nur aus einem Protokoll, sondern umfasst mehrere Protokolle. So besitzt es neben Protokollen zur Verschlüsselung auch das IKE (Internet Key Exchange Protokoll) zur Verwaltung und zum Austausch von Schlüsselinformationen zwischen den Tunnel-Endpunkten. Diese Entwicklung führt vermutlich dazu, dass sich IP als dominantes Protokoll auch Bild 5. Typischer Einsatz eines VPNs mit mobilen Anwendern, Zweigstellen und Subuntenehmern gen. So lassen sich beispielsweise auch Unternehmensinseln, die ausschließlich auf Novells IPX/SPX basieren, über das Internet miteinander verbinden. Das Internet bildet in diesem Fall ein reines Transportnetz. Layer-2-Tunneling-Protokolle besitzen allerdings nicht alle Verschlüsselungsmechanismen und die verwendeten Methoden zur Anwenderauthentisierung genügen auch nicht mehr unbedingt heutigen Anforderungen. Mit der Entwicklung des bislang einzigen sicheren Layer-3-Protokolls IPSec steht erstmals ein standardisiertes Verfahren zur umfassenden Sicherheit für Authentisierung und Datenintegrität für das Internet bereit. Die IPSec-Spezifikationen wurden von der IETF inzwischen weltweit standardisiert. Das IPSec-Protokoll ist unabhängig von aktuellen Verschlüsselungsverfahren, was bedeutet, dass ständig ak- 200 L AN line 12/2000 in den Unternehmensnetzwerken durchsetzen wird, sodass sich das IPSec-Protokoll immer mehr zum Standard entwickelt. TRANSPARENZ DES SYSTEMS Ein VPN arbeitet also auf Ebene 2 beziehungsweise Ebene 3 des Protokoll-Stacks. Das hat im Vergleich zu Lösungen, die auf einem höheren Protokoll-Level agieren (wie zum Beispiel SSL) den Vorteil, dass es für die Anwendung transparent ist. Das bedeutet, dass Änderungen bei bestehenden Anwendungen entfallen und verschiedene Anwendungen ein und dieselbe Sicherheitslösung benutzen können. Darüber hinaus stellen Applikation und VPN eigenständige, getrennte Systeme dar. SMARTCARDS Im Rahmen der PKI be- steht auch die Möglichkeit, Smartcards einzusetzen. Dabei landet der private Schlüssel in einem geschützten Speicherbereich auf der Karte. Dieser Bereich lässt sich von außen nicht auslesen, es ist lediglich möglich, dem Krypto-Chip auf der Karte Daten zu schicken, die dieser dann mit dem privaten Schlüssel ver- oder entschlüsselt. Die Smartcard selbst wird durch eine PIN gesichert, die der Anwender vor der Benutzung eingeben muss, was durch die Bedingungen “Besitz” und “Wissen” ein doppeltes Sicherheitskonzept realisiert. Sicherheitsfunktionen in den Betriebssystemen der Smartcards bestimmen die Anzahl der Versuche bei der Eingabe einer falschen PIN. Die Karten bringen Vorteile gegenüber dem Ablegen des privaten Schlüssels in einer passwortgeschützten Datei, da bei der Dateilösung die Berechnungen mit dem Schlüssel auf dem Rechner ablaufen und deshalb ausgespäht werden könnten. Die Integration der Smartcards in die Anwendungen erfolgt über standardisierte Schnittstellen wie PKCS 11 oder bei neuesten Entwicklungen PKCS 15. So definiert PKCS 11 eine API, mit der eine Anwendung die kryptographischen Funktionen einer Smartcard nutzen kann. Bei PKCS 15 umfasst die Standardisierung auch die Speicherverfahren und Ablaufprozesse des Smartcard-Betriebssystems. Über reine Krypto-Funktionalitäten hinaus können die Smartcards auch weitere Features enthalten wie beispielsweise das Speichern der User-IDs oder der Passwörter. USER ACCESS CONTROL Die Kombination eines VPNs mit User Profiling ermöglicht das effiziente Einbinden von Kunden, Geschäftspartnern und Remote-Mitarbeitern in das eigene Unternehmensnetz. Der Zugriff auf Ressourcen des Unternehmensnetzwerks lässt sich über User-Profile für jede Gruppe individuell gestalten. Einem einzelnen User oder einer Gruppe von Usern können mit dieser Methode spezifische Ressourcen im Unternehmensnetz entsprechend ihren User-Rechten zugewiesen werden. Das Profiling basiert auf den empfangenen Zertifikaten und der Information der sie ausstellenden CA. Bild 4 stellt den Sec-Go-Crypto-IP-Server dar, der diese Advanced-VPN-Technologie repräsentiert. www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Beim Einsatz eines VPN-Servers gibt es immer zwei Verbindungen, eine von außen zum Server (Connection 1) und eine von innen zum Server (Connection 2). Das bedeutet, dass von außen nur der Crypto-IPServer sichtbar ist und alle Clients mit ihm kommunizieren. Der Crypto-IP-Server selbst übernimmt dann die Verbindung mit den eigentlichen Zielservern im Unternehmensnetzwerk. Das IPSec-Handling läuft über einen Interceptor zwischen der Ethernetkarte und der Netzwerkebene, also transparent für die Applikationen. Beide, sowohl die eingehenden als auch die herausgehenden Verbindungen lassen sich via IPSec verschlüsseln. In der Darstellung ist nur Connection 1 verschlüsselt. Um die Kommunikation von der eingehenden Verbindung, etwa von einem Client oder einem Gateway zum Crypto-IP-Server auszuführen, kommen so genannte “Listeners” zum Einsatz. Über “Services” wird die Kommunikation dann an die Ziel- www.lanline.de Server (wie Webserver, Oracle-Datenbanken oder Single-Sign-On-Server) weitergeleitet. Ein Service baut Verbindungen immer nur zu einer spezifischen IP-Adresse beziehungsweise einem Port auf. Beim Aufbau der Verbindungen vom Listener zu den Services helfen User-Profile, in denen die Zugriffsrechte von Usern oder UserGruppen definiert sind. Der Crypto IP Proxy erhält die Identität des Users, der die Remote-Kommunikation aufgebaut hat, von der IPSec-IKE-Ebene. Dabei können User-Profile und Zertifikatsverzeichnisse lokal wie auch remote erreichbar sein. So eine Lösung lässt sich in Anlehnung an die VPN-Basisfunktionalität auch als Application Layer Gateway bezeichnen. Der heutige VPN-Markt bietet sowohl standardisierte als auch proprietäre Lösungen. Die standardisierte Technologie weist im Vergleich zu proprietären Lösungen einige Vorteile auf: – Interoperabilität mit Lösungen anderer Anbieter, – keine Abhängigkeit vom Hersteller, – Preis nach Marktgesichtspunkten, – bekannte Technologie hilft, Schwachpunkte rechtzeitig zu erkennen. Proprietäre Lösungen können allerdings bei einigen Sicherheitsanwendungen durchaus sinnvoll sein, etwa kryptographische Lösungen im militärischen Bereich. Ihr Nachteil ist aber, dass sich der Kunde vom Verkäufer abhängig macht und dass Probleme bei der Kommunikation mit anderen Netzen auftreten. Deshalb sollten die Verantwortlichen bei Entscheidungen für den Einsatz von VPN-Technologie auf die Erfüllung der gängigen Standards wie IPSec, IKE, X.509v3, LDAP, PKIX und ähnliches achten. (Hermann Abels-Bruns/gg) Hermann Abels-Bruns ist Geschäftsführer von IT-SEC. L AN line 12/2000 201 SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS IP-VPNS: EIN NEUER MARKT ENTSTEHT Multiprotocol Label Switching Die meisten Applikationen nutzen das Internet Protocol (IP) als das Transportprotokoll im LAN. Dieser Trend weitet sich zunehmend auf VPNs aus. Eine IP-VPN-Umgebung verpackt die Daten aus einem LAN in IP-Pakete, versieht sie mit einem Header und routet sie dann in eine “Shared” Infrastruktur wie das Internet. etrachtet man die Anforderungen, die ein Unternehmen an eine WAN-Vernetzung stellt, so hat sich seit den Zeiten der Festverbindungen nicht viel verändert. Da die Kommunikation über das WAN eher zunimmt, das heißt immer mehr Daten die Standortgrenzen verlassen, kommt der sicheren, zuverlässigen und schnellen Vernetzung eine zentrale Bedeutung zu. Umfragen bei Unternehmenskunden über die Wichtigkeit von verschiedenen Aspekten eines VPNs haben eine Wertung ergeben, wie sie in Bild 1 gezeigt ist. Demzufolge ist die Performance, also die Geschwindigkeit und Antwortzeit von entscheidender Wichtigkeit, knapp gefolgt vom Sicherheitsas- B pekt. In diesem Zusammenhang fällt auch auf, dass der Preis nur eine relativ untergeordnete Bedeutung hat. VERSCHIEDENE METHODEN, EIN VPN ZU IMPLEMENTIEREN Technisch gese- hen gibt es zahlreiche Möglichkeiten, ein VPN oder auch ein IP-VPN zu implementieren. Wenn man den Begriff sehr weit fasst, ist auch eine Festverbindung, über die IP-Pakete versendet werden, ein IP-VPN. Der Nachteil dieser Vernetzung über Festverbindung ist, wie der Name schon ausdrückt, die “feste” Verbindung, was zum einen einen relativ hohen Festpreis und zum anderen wenig Flexibilität bezüglich Bandbreite, Nutzungsverhal- ten, Verkehrsbeziehungen und vor allem Ausfallsicherheit mit sich bringt. IP-VPNS AUF BASIS FRAME RELAY ODER ATM Neuere VPN-Konzepte nutzten statt der Standleitung Technologien der Paketvermittlung oder Zellvermittlung wie Frame Relay oder ATM. Auch hierüber wurden speziell in Varianten mit LAN-Connect mit einem Access-Router am Kundenstandort IP-Pakete von A nach B transportiert. Hierzu wurden die IP-Pakete in Frame-Relay-Rahmen oder ATM-Zellen eingepackt und versendet. Vorteil dieser Technologien ist es, dass sich vordefinierte Wege, so genannte Virtual Channels (VCs), durch das Netz schalten lassen. Die Verbindungen laufen also auf vorherbestimmten Wegen. Damit können die Verantwortlichen zum einen ServiceQualität in Form von Bandbreitenzusagen oder Laufzeitzusagen garantieren, zum anderen die Sicherheit der Verbindungen ähnlich einer Standleitung gewährleisten. IP-VPN ÜBER DAS INTERNET Eine ein- fache und weltweit verfügbare Methode ist die Vernetzung der Standorte über das Internet. Die Nutzung des Internets in dieser Form hat jedoch zwei Nachteile, weswegen die Unternehmenskunden diese Art von Vernetzung so nicht wünschen oder nur in bestimmten Fällen wählen. Zum einen fehlt die Sicherheit, zum anderen gibt es keinerlei Aussagen über die Verbindungsqualität. Für Abhilfe bei den Sicherheitsproblemen sorgen Authentifizierung, Verschlüsselung und Tunneling. Hier haben sich einige Standards etabliert, die von verschiedenen Herstellern unterstützt werden wie PPTP, L2TP oder IPSec. Die Vernetzung über das Internet, erweitert um Sicherheitsfunktionen wie IPSec, ist besonders für Netzwerkarchitekturen mit mobilen Mitarbeitern oder Teleworkern geeignet. IP-VPN ÜBER DIE PRIVATE IP-INFRASTRUKTUR Die weitaus verbreitetste Im- Bild 1. VPN-Leistungsmerkmale, die für Unternehmenskunden besonders wichtig sind 202 L AN line 12/2000 plementierung von IP-VPNs läuft heute mit Hilfe der privaten Infrastruktur eines www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Bild 2. Prinzip der IP-VPN-Architektur – Variante 1: die Intelligenz befindet sich am Kundenstandort Service-Providers. Der Unternehmenskunde ist hierbei ähnlich wie bei Frame Relay und ATM an den Backbone angeschlossen und versendet seine IP-Daten über dieses Netz. Der Vorteil dieser Infrastruktur liegt darin, dass sich die Zuverlässigkeit durch zusätzliche Sicherheitsmaßnahmen gewährleisten lässt und die Qualität des Netzwerks und der Übertragungen kontrolliert und gesteuert werden kann. In puncto Sicherheit bieten die ServiceProvider derzeit zwei grundsätzliche Methoden an, nämlich zum einen Intelligenz und Sicherheitsfunktionen am Kundenstandort und zum anderen Intelligenz und Sicherheitsfunktionen am Eingangspunkt zum WAN. Die erste Variante (Bild 2) realisiert alle Maßnahmen zur Gewährleistung der Sicherheit in einem Gerät am Kundenstandort. Dies umfasst Funktionen wie VPN-Gateways mit IPSec, Firewalls oder Routing. Damit entspricht dieser Ansatz einer Lösung mit Anschluss an das Internet. Für den Provider ergibt sich daraus der Vorteil, dass er sein Backbone-Netzwerk nicht erweitern oder aufrüsten muss und dadurch relativ niedrige Anafangsinvestitionen zu tätigen sind beziehungsweise Investments nur bei Anschaltung eines Kunden anfallen. Ein Vorteil für den Kunden ist, dass diese Lö- 204 L AN line 12/2000 sung an jedem Standort eingesetzt werden kann, egal, wo auf der Welt er an das Internet angebunden ist. Die Nachteile sind hauptsächlich auf der Seite des Providers zu sehen. Dieser muss die Geräte am Kundenstandort warten, was Updates und ähnliche Maßnahmen mit einschließt. Vor allem das Verwalten der VPNs mehrerer Kunden ist ein enormer administrativer Aufwand. Die zweite Variante (Bild 3) verlegt einige Funktionen und “Intelligenz” an den Access-Punkt des Netzes des Providers. Der Kunde verbindet sich dann über eine sichere Access-Leitung, beispielweise mit IPSec-Tunneln mit dem ProviderNetz. Die Vorteile dieser Lösung liegen vor allem auf der Seite des Betreibers, da er nun über zentralisierte Funktionen und Komponenten verfügt, die wesentlich einfacher zu installieren, zu warten und zu verwalten sind als die am Kundenstandort befindlichen Endgeräte. Auch die Umsetzung neuer Dienste oder Leistungsmerkmale ist durch Erweiterung der zentralen POPs wesentlich einfacher. Ein zusätzlicher Vorteil liegt in der besseren Skalierbarkeit der zentralen Komponenten, denn Ressourcen wie Prozessorkapazität, Router-Kapazität oder Speicherkapazität lassen sich auf mehrere Kunden verteilen. Dabei muss der Provider je- www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS doch gleichzeitig gewährleisten, dass die einzelnen Kunden-VPNs gegeneinander abgesichert sind. Der Vorteil für den Endkunden liegt hauptsächlich im geringeren Umstellungsaufwand. Zusätzliche Vorteile werden erst durch den Provider umgesetzt, indem er die geringeren Kosten an den Endkunden weitergibt oder neue Dienste schneller und bedarfsgerechter implementierten kann. DIE ROLLE VON MPLS IN IP-NETZEN Multiprotocol Label Switching (MPLS) soll die Schwachstellen von IP-WANNetzwerken beseitigen. Dabei greift MPLS an verschiedenen Stellen an wie – Traffic Engineering, – Schaltung von Pfaden (LSPs), – Unterstützung von Qualitätsparametern, – Unterstützung von VPNs. Die MPLS-Technologie wurde entwickelt, um die Effizienz und Zuverlässig- Netzwerks abspielen. MPLS eignet sich speziell, um die IP-VPNs mit Quality-ofService-Parametern zu versehen. WELCHES IP-VPN IST DAS RICHTIGE? Der Trend geht voraussichtlich dahin, dass Verfügbarkeit und Austausch von Informationen zum entscheidenden Wettbewerbsfaktor für Unternehmen werden. Dabei greift die Kommunikation immer mehr in die internen Unternehmensprozesse ein wie zum Beispiel Online-Shopping oder Beschaffungslogistik. Somit wird sie zum integralen Bestandteil der Betriebsabläufe. Gleich, welche Variante ein Unternehmen für sein privates Netzwerk wählt, für die Entscheidung sind drei Fragen wichtig: – Erfüllt es die Geschwindigkeits- und Sicherheitsanforderungen? – Ist es flexibel genug, um den wachsenden Anforderungen gerecht zu werden? Bild 3. IP-VPN-Architektur – Variante 2: die VPn Intelligenz residiert im Netz des Service-Providers keit und damit die Wirtschaftlichkeit von IP-Netzen zu verbessern. MPLS definiert so genannte Labels und einen Signalisierungmechanismus, um diese Labels zuzuweisen, was einem Rufaufbau im Sprachnetz oder ATM-Netz sehr nahe kommt. Demnach ist MPLS dem ATMStandard sehr nahe, sodass beide Technologien in Zukunft nebeneinander bestehen werden und ein “Interworking” stattfinden wird. Die Implementierung von MPLS wird sich vornehmlich im Kern des Provider- www.lanline.de – Liefert es die Qualität, die erwartet wird? Ein VPN, das auf einer privaten IP-Infrastruktur kombiniert mit mobilen Einwahlnutzern aufsetzt, bietet eine wirtschaftliche Möglichkeit zum Aufbau eines Unternehmensnetzes, das für zukünftige Anforderungen und Anwendungen offen ist. (Frank Zwirner/gg) Frank Zwirner ist Product Manager bei Highway-One Germany. L AN line 12/2000 205 SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS VIRTUAL PRIVATE NETWORKS (VPN) UND IPSEC Private Daten routen VPNs sind eine Alternative zu Festverbindungen. Strukturell gibt es unterschiedliche Varianten zum Aufbau der Netze – per Switch oder Router. Bisher basieren VPNs meist auf überwiegend proprietären Lösungen. IPSec soll das ändern und den virtuellen privaten Netzen zum endgültigen Siegeszug verhelfen. estverbindungen gelten zwar als ziemlich sicher, sind aber bei längeren Strecken mit hohen Fixkosten verbunden. ISDN-Wählverbindungen schlagen ebenfalls mit hohen Kosten je nach Dauer und Distanz der Verbindung zu Buche. Für Unternehmen bieten sich hier VPNs an – sie bieten eine wirtschaftliche Alternative. Denn in einem virtuellen privaten Netz bezahlt der Kunde nur für die Anbindung zum nächsten POP (Point of Presence) des Providers. Da der Datenverkehr jedoch über das Internet oder ein öffentliches IP-Netz läuft, spielt der Faktor Sicherheit eine bedeutende Rolle. F arbeiten. Allerdings wird der Traffic bei Switch-basierten VPNs nicht unbedingt verschlüsselt. Oftmals kommt nur das für VPN übliche Tunneling-Verfahren zum Einsatz. Dabei werden die Datenpakete in ein zweites IP-Paket verpackt – sozusagen gekapselt. Das funktioniert in der Regel über das PPTP (Point-to-Point Tunneling Protocol). Es arbeitet auf ringe Verschlüsselung mit lediglich 40Bit langen Schlüsseln vorgenommen. Je nach Sicherheitsbedürfnis sollte ein Verfahren mit mindestens einem 85-BitSchlüssel gewählt werden. Im Prinzip gibt es also zwei Arten von VPNs: – VPN von Carriern und ISPs: Der Zusammenschluss der virtuellen privaten Netze erfolgt über den Backbone des Carriers; die Administration wird ebenfalls vom Carrier abgewickelt. Meist werden diese Netze mit Switches aufgebaut – das erleichtert in großen Netzwerken die Verwaltung und wirkt sich nicht negativ auf den Durchsatz aus. Diese VPNs sparen also Kosten, der Datenverkehr wird aber nicht unbedingt zusätzlich verschlüsselt. – Unternehmenseigenes VPN: Hierbei verwaltet der Administrator des Unternehmens das VPN selbst. Ausgehender Datenverkehr über den Service-Provider oder das Internet wird in der Regel verschlüsselt. Diese VPNs sind meist Router-basiert, da die Verschlüsselung hier ohne großen Mehraufwand und SWITCH ODER ROUTER ALS BASIS? VPNs lassen sich sowohl mit Switches als auch mit Routern realisieren. Als Faustregel gilt dabei: Switch-basierte VPNs eignen sich in erster Linie für sehr große Netzwerke von Carriern oder ISPs. Sie bringen den Vorteil, dass der Datenverkehr von mehreren IP-Adressen über lediglich einen Switch geleitet werden kann. Damit ist beispielsweise ein ISP in der Lage, zwei konkurrierenden Unternehmen gleichzeitig eine VPN-Lösung anzubieten. Die Daten laufen beide über denselben Switch, die Kunden bekommen davon nichts mit, und der Anbieter garantiert, dass das System die Daten der Kunden bei der Abwicklung nicht vermischt. Im Vergleich zu einem Routerbasierten VPN kann der Switch diese Separation der Dateninhalte schneller ver- 206 L AN line 12/2000 Die Geräte von Lightning bieten Verschlüsselung auf Link Level und auf IP Level. Letzteres eignet sich besonders für die Installation von S-VPNs (Secure Virtual Private Network) Layer 2 und nutzt zur Authentisierung PAP (Password Authentification Protocol) sowie CHAP (Challenge Handshake Protocol). Eine zusätzliche Verschlüsselung im Switch gibt es heutzutage nicht. Sie würde das Verfahren aufwändiger und langsamer machen. Anders sieht es bei Router-basierten VPNs aus. Hier kann der Prozessor im Router in der Regel die Verschlüsselung gleich mit verarbeiten. Oftmals wird standardmäßig jedoch nur eine relativ ge- komplizierte Konfigurationen vom Administrator selbst installiert und verwaltet werden kann. SICHERE ÜBERTRAGUNG DER DATEN Da die meisten VPNs Teile des Internets zur Übertragung der Daten nutzen, kommt der Verschlüsselung eine besondere Bedeutung zu. Öffentliche Netze sind schließlich nicht gerade für ihre Sicherheit bekannt. Die bisher vor allem eingesetzten proprietären VPN-Lösun- www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS gen verwenden meist Verschlüsselungsalgorithmen wie DES (Data Encryption Standard – 40- und 56-Bit-Schlüssel) oder Triple DES (112- und 168-BitSchlüssel). Lightning bietet ebenfalls den IDEA (International Data Encryption Algorithm – 128-Bit-Schlüssel) an. Alle drei Verschlüsselungsverfahren unterscheiden sich in ihrer Struktur und der Länge der Schlüssel. DES und Triple DES wurden in den USA entwickelt. IDEA stammt aus der Schweiz und wird unter anderem von namhaften Organisationen wie der ISO (International Standards Organization) und der ITU (International Telecommunication Union) empfohlen. In Kombination mit IDEA setzt Lightning in seinen Lösungen ein automatisches Schlüsselverwaltungssystem mit Master Keys ein. Für jede Remote Site oder jeden IP-Empfangsbereich wird ein ganz bestimmter Master Key generiert. Für jede neue Verbindung generiert das System dann nach dem Zufallsprinzip einen Session Key. Dieser lässt sich nach einer bestimmten Zeit oder einer bestimmten übertragenen Datenmenge automatisch erneuern. Der Administrator kann ein Hochsicherheits-Passwort anlegen, um den Zugang zur Konfiguration des Routers zu schützen. IPSEC ALS UNIVERSELLER STANDARD IPSec wurde speziell dafür entwickelt, die Sicherheitslücke in IP-Netzen zu schließen. Es handelt sich dabei um einen Standard der IP Security Working Group, der dazu dienen soll, die Verbreitung von VPNs auch in heterogenen Netzwerken voranzutreiben und die Implementierung zu erleichtern. Im VPN-Bereich soll IPSec langfristig das Tunneling-Protokoll PPTP ablösen. Beim Einsatz von PPTP erfolgt die Verschlüsselung über RC4 oder DES. Die Schlüssellänge variiert dabei zwischen 40 und 112 Bit. In IPSec können Verschlüsselung (ESP) und Authentifizierung (AH) voneinander getrennt, wahlweise aber auch in ESP kombiniert werden. Die aktuellen Entwicklungen machen Multiprotokolle, die bei proprietären Lösungen zum Einsatz kommen, zuneh- 208 L AN line 12/2000 mend zugunsten von TCP/IP überflüssig. Damit steigt IPSec voraussichtlich zum wichtigsten Standard für zukünftige VPN-Installationen auf. Das bringt allerdings auch mehr Komplexität bei der Abwicklung der Datenübertragung und der Verwaltung mit sich. Die IPSec-Protocol-Suite besteht aus drei Elementen: – Authentication Header (AH): Dieser IP-Header enthält Informationen darüber, ob das Datenpaket während der Übertragung auf irgendeine Weise verändert wurde und ob die Absenderquelle identisch ist. – Encapsulation Security Payload (ESP): Verschlüsselt die Daten vor der Übertragung und schützt so vor fremden Zugriffen und Manipulationen. – Internet Key Exchange Protocol (IKE): Das ist sozusagen das Verhandlungsprotokoll. Es ermöglicht die Kommunikation zwischen zwei Seiten, um sich auf die Verwendung eines bestimmten Verschlüsselungsverfahrens wie DES oder Tripel DES zu einigen. Bisher unterstützt IPSec DES und Tripel DES als Verschlüsselungsalgorithmen sowie PKIs (Public Key Infrastructures). Um die Daten zu verschlüsseln, müssen beide Teilnehmer – Empfänger und Absender – miteinander kommunizieren und sich für ein einheitliches Verschlüsselungsverfahren entscheiden. Nur dann lassen sich die benötigten Schlüssel austauschen. Unterstützt die eingesetzte VPN-Lösung also nicht eines der beiden Verfahren, erfolgt auch keine Verschlüsselung. Dann wird der Datenverkehr nur getunnelt. Der Einsatz von PKIs macht die Verwaltung für den Administrator folglich komplizierter. Eine PKI-Umgebung besteht prinzipiell aus den drei Komponenten Certification Authority (CA) zur Ausstellung der Zertifikate, einem Distributionssystem für den Zugriff auf die ausgestellten Zertifikate sowie einem Verzeichnis im Distributionssystem, in dem die ausgestellten Zertifikate hinterlegt sind. Um eine PKI zu nutzen, muss der Administrator in jedem Gerät alle Schlüssel, Public Keys und zur Verfügung stehenden Zertifikate konfigurieren. In großen Netzwerken bedeutet das einen erheblichen Aufwand. Andererseits eignet sich IPSec gerade für sehr große Netzwerke, da diese zumeist eine stark heterogene Infrastruktur aufweisen und IPSec als fest definierter Standard in derartigen Umgebungen gut eingesetzt werden kann. Der wohl größte Nachteil von IPSec ist bisher, dass dieser Sicherheitsstandard nur für IP-Netze geeignet ist. FAZIT IPSec wird die Verbreitung von VPNs zunehmend vorantreiben. Einen richtigen Boom löst auch der zunehmende Einsatz breitbandiger Festverbindungen wie ADSL oder Kabelmodems aus. Wenn “Always-On-Lösungen” günstiger werden, besteht kein Bedarf mehr an dedizierten Festverbindungen. Dann werden sich immer mehr Menschen über öffentliche IP-Netze einwählen und diese Verbindung nicht nur als Zugang zum Internet, sondern auch zur Anbindung der Firmenniederlassungen an das Unternehmensnetz der Zentrale nutzen. Generell ist zunächst der konkrete Bedarf für eine VPN-Lösung zu definieren. Abgesehen von einer Entscheidung für ein Software-, Hardware- oder Firewall-basiertes VPN gilt es auch zu überlegen, ob eine OpenSource-Lösung oder ein proprietäres System zum Einsatz kommen soll. Etwaige Fehler lassen sich in der OpenSource-Variante wesentlich schneller und individueller lösen. Beim proprietären System hat in der Regel nur der Hersteller direkten Zugriff auf den Code. Für die Verschlüsselung der Daten sollte ein Algorithmus mit mindestens 85 Bit Schlüssellänge gewählt werden. Dies schützt relativ gut vor möglichen Angriffen auf die Daten. Darüber hinaus ist es vorteilhaft, wenn die Geräte nach der Installation über ein LED anzeigen, ob die Verschlüsselungsmechanismen auch wirklich angewendet werden. Bei vielen Geräten lässt sich dies optional ein- oder ausschalten. (Dr. Beat Brunner/gg) Dr. Beat Brunner ist Vorstand von Lightning www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS ANLEGEN UND ADMINISTRIEREN VON VPNS Management des Datenaustausches Virtual Private Networks (VPNs) stellen eine wirtschaftliche Lösung zum Einbinden von Partnern und mobilen Mitarbeitern in das Unternehmensnetz dar, da sie den sicheren und kostengünstigen Transport von Daten über öffentliche Netze ermöglichen. Das Management von VPNs bringt jedoch etliche Schwierigkeiten mit sich, die der verantwortliche Administrator berücksichtigen muss. m weitesten verbreitet sind VPNs, die auf dem IP-Protokoll basieren (IP-VPN). Im Gegensatz zu traditionellen Datennetzwerken bieten IP-Netzwerke Kostenvorteile, haben eine durchgängige Infrastruktur und erhöhen, da dynamisch konfigurierbar, die Flexibilität. Allerdings eignen sich öffentliche IPNetzwerke nur bei Einsatz spezifischer Schutzmechanismen für den Austausch unternehmenskritischer Informationen. A (E-)BUSINESS AS USUAL? Bei der Aus- legung von IP-VPNs gilt es für Netzadministratoren, vor allem folgende fünf Punkte zu beachten: – Architektur: Stehen die Kosten oder die Sicherheitsanforderungen im Vordergrund? – Verfügbarkeit: Welche Verfügbarkeit ist gefordert, und welche Teile der Lösung sollten redundant ausgelegt werden? – Leistungsbedarf – Skalierbarkeit: Auf welchen Bedarf sollte die VPN-Anwendung ausgelegt werden? Wie schnell wächst der Leistungsbedarf? – Datensicherheit – Zugangskonzept, Verschlüsselung: Welche Eigenschaften sind erforderlich, um die Benutzerdaten vor unzulässigem Zugriff zu schützen, und welche Anforderungen werden an die Verschlüsselung vertraulicher Daten gestellt? 210 L AN line 12/2000 – Netzwerkmanagement, also Konfiguration, Fehlerbehebung und Benutzerverwaltung: Wie umfassend müssen die Verwaltungsfunktionen sein, und wie komfortabel lassen sie sich bedienen? Können die Verantwortlichen Komponenten verschiedener Hersteller gemeinsam verwalten? Auch wenn Architektur, Verfügbarkeit und Leistungsbedarf eine wichtige Rolle spielen, sind sie eher Standardthemen und lassen sich verhältnismäßig kurz abhandeln. Für die tägliche Arbeit spielen die Managementfunktionen die wichtigste Rolle, im sicheren Netzbetrieb sorgen die Sicherheitsmechanismen für Abhörsicherheit, Vertraulichkeit und Integrität der ausgetauschten Daten. DIE AUSWAHL GEEIGNETER SICHERHEITSMECHANISMEN FÜR IP-VPNS Da der Aufbau von VPNs zum Austausch von Informationen über das Internet Sicherheitsrisiken birgt, sind die Anforderungen an verwendete Übertragungssysteme und -protokolle verhältnismäßig hoch. Um Angriffspunkte für Hacker so minimal wie möglich zu halten, bietet sich anstelle zahlreicher über eine Infrastruktur vernetzter Komponenten wie Firewalls, Router, Kryptoboxen, Datenbanken und ähnlichem der Einsatz einer “All-in-one-Box”-Lösung an. Da die Implementierung von VPNs in unterschiedlichen Schichten des ProtokollStacks erfolgen kann, ist zu überprüfen, welche Tunnelprotokolle die einzelnen Produkte unterstützen. Von den speziell für die Schicht zwei entwickelten Protokollen setzte sich im Wesentlichen nur das Layer-2-Tunneling-Protocol (L2TP) durch, welches aus dem Point-to-Point-Tunneling-Protocol (PPTP) und dem Layer-2Forwarding-Protocol (L2F) entstanden ist. Als Standard für den Aufbau von IP-VPNs innerhalb der Schicht 3 konnte sich vielerorts das IPSec- Protokoll etablieren. Die Sicherheitsarchitektur setzt sich im Wesentlichen aus einem “Authentification Es sind Intranet-, Remote-Access- und Extranet-VPNs möglich www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Eine Lösung, die innerhalb des Unternehmens realisiert wird, bietet die höchste Datensicherheit darauf achten, dass in Home Offices eingesetzte Rechner sowie mobil genutzte Geräte mit einem VPN-Software-Client ausgestattet werden, der nicht nur die gängigen Plattformen (zum Beispiel Windows 2000- oder Linux-basierte Umgebungen), sondern vor allem IPSec über das SplitTunneling-Verfahren unterstützt. Auf diese Weise können Remote-Anwender gleichzeitig über einen Tunnel auf unternehmensweite Ressourcen zugreifen und über einen anderen im Internet surfen. Dies bietet zwei entscheidende Vorteile, nämlich die Abschottung der unternehmensweiten Ressourcen vor Hacker-Angriffen durch zwei getrennte Tunnel und die Verringerung der Remote-Access-Kosten, denn der Zugriff auf das Internet erfolgt direkt und nicht über den sicheren für die Kommunikation mit dem Unternehmen aufgebauten IPSec-Tunnel. NUR FÜR GELADENE GÄSTE IP-VPN- Header” zur Sicherstellung der Authentizität und Integrität der Daten und einer als “Encapsulated Security Payload” (ESP) bezeichneten Komponente, die der Verschlüsselung von IP-Paketen dient, zusammen. Da IPSec jedoch den Einsatz zahlreicher Verschlüsselungsalgorithmen oder Key-Exchange-Verfahren zulässt, sind die VPN-Produkte verschiedener Unternehmen nur bedingt kompatibel. Zum Realisieren einer leistungsstarken VPN-Lösung bietet es sich daher an, auf die Produkte eines einzigen Herstellers zu setzen. Dabei sollten die Verantwortlichen unbedingt Eine vom Service-Provider außerhalb des Unternehmens realisierte Lösung lässt sich einfacher Skalieren 212 L AN line 12/2000 Lösungen müssen weitreichende Authentifizierungsmechanismen zur Identifizierung von Remote-Anwendern bieten. Nur auf diesem Weg lässt sich ein unternehmenseigenes privates Netz vor unberechtigten Zugriffen schützen. In jedem Fall sollte das ausgewählte Produkt auf die Informationen standardbasierter interner oder externer LDAP- und Radius-Server zugreifen können. Bei LDAP handelt es sich um einen standardisierten Verzeichnisdienst, der die hierarchische Verwaltung von Informationen zum Beispiel zu Nutzergruppen oder einzelnen Anwendern inklusive der Zuweisung spezifischer Attribute (Filter, Services) in einer Datenbank übernimmt und zusätzlich die Suche nach diesen gestattet. Radius stellt eine standardbasierende AAA-Lösung (Authentication, Authorization, Accounting) zur Authentifizierung von Anwendern dar, die per Remote-Access-Verfahren auf die Unternehmensressourcen zugreifen möchten. In der Regel bietet es sich an, bei der Einwahl eines Nutzers zunächst die LDAP-Datenbank zu überprüfen. Sind in dem Verzeichnis keine entsprechenden Einträge auffindbar, wird die Anfrage an den Radius-Server weitergeleitet. Entscheidend ist, dass bei der www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Überprüfung die Angabe des Benutzernamens ausreicht und die entsprechenden IP-Adressen in Folge dynamisch zugewiesen werden. Dies vereinfacht die Administration erheblich. Die Zugriffsgenehmigung oder -Verweigerung erfolgt im Anschluss an die Identifizierung des Nutzers mittels gesetzter Filter. LEISTUNGSSTARKE VERSCHLÜSSELUNGSVERFAHREN Die Verschlüsselung spielt für die Datensicherheit während der Übertragung eine wichtige Rolle. Der Sender verwendet einen auf einem bestimmten Algorithmus basierenden Ver- Sind drei verschiedene Schlüssel in Reihe vor einen Klartextblock geschaltet, spricht man von “Triple DES”-Encryption, kurz 3DES. Da Sender und Empfänger bei diesen Verfahren den gleichen Schlüssel nutzen, muss der Sender ihn dem Empfänger übermitteln. Dies ist vor allem dann problematisch, wenn der Transport über ein öffentliches Netzwerk erfolgt. Eine Lösung dieses Problems liegt im Einsatz des Public-Key-Verfahrens. Bei diesem asymmetrischen Verschlüsselungsverfahren kommt ein Paar mathematisch verwandter Schlüssel zum Einsatz: Ein öffentlicher und ein vertraulicher kannt unter dem Begriff “Key Management”). Hierzu zählen auch digitale Zertifikate und Signaturen. ZERTIFIKATE NACH DEM STANDARD X.509 Ein digitales Zertifikat ist ein elektronisches Dokument, das den Anwendernamen an einen öffentlichen Schlüssel bindet. Es umfasst den eingetragenen Benutzernamen, den zugewiesenen öffentlichen Schlüssel (einschließlich der verwandten Algorithmen und Parameter), eine bescheinigte Seriennummer, einen Gültigkeitszeitraum und den Namen sowie die digitale Unterschrift (einschließlich der verwandten Algorithmen und Parameter) der ausstellenden Beglaubigungsstelle. VPN-Lösungen sollten digitale Zertifikate gemäß des Standards X.509 unterstützen. Diese werden in der Datenbank eines LDAP-Servers mit den jeweiligen Nutzeranwendungen gespeichert und erhöhen die Sicherheit bei der Authentifizierung von Remote-AccessTeilnehmern. DEN ÜBERBLICK BEHALTEN Bei der Simultaner Einsatz von zwei Zugriffspfaden über “Split Tunneling” schlüsselungscode, um Eingabedaten in unleserliche Ausgabedaten umzuwandeln. Diese ergeben nur für den Empfänger einen Sinn, der über den richtigen Dechiffrierschlüssel verfügt. Je länger der Schlüssel oder je komplexer der Algorithmus ist, desto schwieriger wird es auch, die Daten zu entziffern. Damit hierdurch der zentrale Prozessor nicht zu stark belastet wird, empfiehlt sich der Einsatz zusätzlicher Hardware-Encryptions-Karten. Die verfügbaren Mechanismen hängen maßgeblich vom unterstützten TunnelingProtocol ab. Beim Aufbau einer IPSec-basierten Verbindung wird für die Ver- und Entschlüsselung von Daten beispielsweise als Algorithmus der Data-EncryptionStandard (DES oder 3DES) genutzt. DES ist eine symmetrische Technik, die nur einen einzigen geheimen Schlüssel verwendet. Bei DES können ein oder mehrere 56Bit–Schlüssel zum Einsatz kommen, um einen 64-Bit-Klartextblock zu chiffrieren. 214 L AN line 12/2000 Schlüssel. Eine anerkannte Beglaubigungsstelle (Certificate Authority/CA) erzeugt für einen Anwender zwei Schlüssel, welche im gleichen Moment denselben Algorithmus nutzen. Der öffentliche Schlüssel des Anwenders ist frei zugänglich und in einem privaten Verzeichnis festgehalten, auf welches berechtigte Nutzer zugreifen können. Den vertraulichen Schlüssel kennt im Gegensatz dazu nur der jeweilige Anwender. Dieser Schlüssel wird niemals übertragen. Bei Nutzung dieses Verfahrens erscheint die Integration von VPN-Lösungen in eine “Public Key Infrastructure” (PKI) sinnvoll. Eine solche Umgebung umfasst verschiedene Protokolle, Dienste und Standards, die zur Unterstützung der Public-Key-Verschlüsselung erforderlich sind. PKI bietet Funktionen zum Generieren, Speichern, Verteilen und Verifizieren von Schlüsseln sowie für deren Widerruf, Ablehnung und Wiederherstellung (be- Auswahl von VPN-Lösungen stehen neben den unterstützten Sicherheitsverfahren auch die Managementfunktionalitäten im Mittelpunkt der Betrachtungen. Eine wichtige Hilfe ist die Verfügbarkeit einer Web-basierten grafischen Benutzeroberfläche (GUI) zum einfachen Installieren, Konfigurieren und Verwalten der VPN-Lösung. Ähnliche Bedeutung hat ein zentrales Verwaltungs-Tool für sämtliche verteilt eingesetzten VPN-Komponenten. Das schließt auch die Produkte weiterer Hersteller mit ein. Die Konfiguration sollte dabei über Standard-Web-Browser erfolgen. Ein weiteres wichtiges Feature ist die Unterstützung des “Role Based Management”-Verfahrens zum Erstellen von Profilen, einschließlich der Vergabe von Rechten und Privilegien für individuelle Anwender oder Nutzergruppen und zum Speichern der Informationen auf dem LDAP-Server. Um Problemen im Betrieb vorzubeugen, sollten Anwendungen zur Fehlerermittlung und -behebung bereit stehen. Dazu gehören unter anderem Ping, www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS die Zahl der notwendigen allgemeingültigen IP-Adressen deutlich minimiert und so wertvollen IP-Adressraum zur Verfügung stellt. VERFÜGBARKEIT IST PFLICHT Die ge- Beispiel für die Bedienoberfläche eines Netzwerkmanagementsystems SNMP-Traps und Health-Check-Funktionen. Dazu kommt noch ein integriertes Berichtswesen, das die Verantwortlichen über die wesentlichen Vorgänge auf dem Laufenden hält. Damit das System die von den Anwendern abgewickelten Aktivitäten und deren Zugriffe auf die unternehmensweiten Ressourcen und Dienste genau nachverfolgen kann, muss es außerdem über Accounting-Funktionalitäten verfügen. Auf dieser Basis ist es möglich, Nutzungsgebühren zu berechnen, Maßnahmen zum Schutz der Ressourcen und Services zu treffen und die Leistung des gesamten Systems zu überwachen. Darüber hinaus sollte die VPN-Komponente in jedem Fall das “Network Ad- 216 L AN line 12/2000 dress Translation”-Verfahren (NAT) zum Umsetzen von IP-Adressen unterstützen. Dieser Mechanismus gewährleistet eine dynamische Verwaltung der IP-Adressen, vereinfacht die Adressierung und wirkt sich auf die Sicherheit bei der Übertragung von Daten aus. Denn er überprüft jedes eintreffende und jedes für den Versand vorgesehene Datenpaket vor der Adressübersetzung. Alle lokalen IP-Adressen lassen sich damit auf eine einzige oder einen kleinen Pool allgemeingültiger IP-Adressen abbilden. Genauso ist es möglich, die allgemeingültigen IP-Adressen auf eine kleine Anzahl lokaler IP-Adressen zu mappen, die wesentlich einfacher zu kontrollieren und zu überwachen sind. NAT bietet zudem auch den Vorteil, dass es forderte Leistung der VPN-Lösungen hängt vom jeweiligen Anwendungsbereich ab. Die Produkte der meisten Hersteller sind skalierbar aufgebaut und unterstützen je nach Kategorie den gleichzeitigen Aufbau von nur wenigen bis hin zu einigen tausend Tunnel-Verbindungen. Im Hinblick auf die Verfügbarkeit von VPN-Produkten ist in jedem Fall auf Redundanz zu achten – sowohl auf Hard- als auch auf Software-Seite. Eine VPN-Lösung sollte mit mindestens zwei Festplattenlaufwerken, Prozessoren und im laufenden Betrieb austauschbaren Stromversorgungen ausgestattet sein. Auch macht es oft Sinn, mindestens zwei identisch konfigurierte Lösungen zu betreiben. Dies gewährleistet, dass die Aufgaben des aktiven Geräts bei dessen Ausfall direkt von der bislang passiven Ersatzmaschine übernommen werden. In Bezug auf die Software empfehlen sich automatische Backup- und Wiederherstellungsfunktionen. Eine Möglichkeit zum weiteren Verbessern der Ausfallsicherheit besteht im Definieren von Policies. AUSBLICK Bislang nutzen überwiegend größere Unternehmen virtuelle private Netze. Doch die immensen Kosteneinsparungen, die sich durch den Einsatz von VPNs erzielen lassen, deuten darauf hin, dass sich diese Technik auch bei kleineren und mittelständischen Unternehmen mittelfristig durchsetzen wird. Die Hersteller von VPN-Produkten reagieren mit der Einführung entsprechender Lösungen, also Plug-and-Play-Produkten, die einfach zu installieren, zu konfigurieren und zu verwalten sind, auf diese Entwicklung. (Udo Kerst/gg) Udo Kerst ist Senior Manager Solutions Marketing bei Nortel-Dasa www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS DAS ENDE DER PROPRIETÄREN PROTOKOLLE Sicher durch den Tunnel Theoretisch eignet sich das Internet in Verbindung mit TunnelingTechniken schon lange für die gesicherte Kommunikation zwischen zwei Endgeräten oder Netzen. Allerdings waren diese “Virtuellen Privaten Netze” bisher in der Praxis noch wenig zu finden. Mit IPSec könnte sich das ändern. Der mittlerweile auch von der Industrie adaptierte Standard bietet die besten Voraussetzungen, die Mankos der Vergangenheit aus dem Weg zu räumen. irtuelle Private Netze (VPNs) geraten zunehmend als kostengünstige Alternative zur Festverbindung ins Blickfeld der Unternehmen. Anstelle dedizierter Mietleitungen werden beim Virtuellen Privaten Netz die Kommunikationsverbindungen des Internets benutzt, V Lösungen eine Kostenersparnis von 20 bis 60 Prozent zur Folge hat. Darüber hinaus sind VPNs verglichen mit einer Mietleitung flexibler und ermöglichen auch das Anbinden externer Mitarbeiter, die über wechselnde Standorte auf das Netzwerk zugreifen. IPSec-Protokolle im Tunnel- und Transportmodus um Niederlassungen, Teleworker oder Partner ans interne LAN anzubinden – entweder von Endgerät zu Endgerät, von Endgerät zu Gateway oder von Gateway zu Gateway. Experten schätzen, dass der Einsatz von VPNs gegenüber klassischen 218 L AN line 12/2000 VPNs nutzen das Tunneling-Verfahren, um vertrauliche Daten sicher über öffentliche Netze zu transportieren. Die Methode an sich ist nicht neu. Doch vor allem die früheren Tunneling-Protokolle wie das Point-to-Poin-Tunneling-Proto- col (PPTP) haben ihre Schwachstellen. PPTP verwendet für die Authentisierung das Password Authentification Protocol (PAP) sowie das Challenge Handshake Protocol (CHAP) und verschlüsselt mittels RC4 und DES, wobei Schlüssel zwischen 40 und 128 Bit verwendet werden. Zudem waren es vor allem proprietäre Protokolle wie FWZ1 von Checkpoint oder das frühere CET von Cisco, mit denen sich VPN-Lösungen realisieren ließen – mit dem Nachteil, dass eine Kommunikation meist nur zwischen den Produkten des jeweiligen Herstellers möglich war. Kurzfristige verschlüsselte Verbindungen sind damit unmöglich, wenn nicht beide Partner zufällig die gleichen Produkte verwenden. Diese Mankos haben den VPNs bislang nicht gerade zu großer Verbreitung verholfen. Mit IP Security (IPSec) der ”IP Security Working Group“ ist ein großer Schritt nach vorne gelungen. Damit geht das Zeitalter der proprietären Protokolle vorüber. Viele Hersteller wie Checkpoint oder Cisco unterstützen den Standard und ermöglichen so den Aufbau heterogener VPNs. Auch auf europäischer Ebene gibt es bereits erste große IPSec-Projekte, etwa das European Network Exchange (ENX) in der Automobilindustrie. Einen Nachteil hat die vielgelobte Entwicklung allerdings: IPSec eignet sich nur für reine IP-Umgebungen. Die Möglichkeit von PPTP, auch andere Protokolle wie IPX oder NetBEUI direkt in einen IP-Mantel einzuschließen, bietet IPSec nicht. Dennoch ist davon auszugehen, dass IPSec langfristig PPTP ablösen wird, da es eine höhere Sicherheit realisiert und die Firmen ihre Netzwerkinfrastruktur immer mehr auf TCP/IP ausrichten. Zudem unterstützt IPSec neben IPv4 auch das kommende IPv6. Das gewährleistet den Schutz der Investitionen. Während das PPTP unterhalb der Transportschicht (TCP/IP, IPX/SPX, NetBEUI, also auf Layer 2) läuft, integriert sich IPSec auf der Netzwerkebene, also Layer 3. Darüber hinaus sind Authentifizierung und Verschlüsselung getrennt, beides kann aber muss nicht kombiniert werden. Es handelt sich hier um www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS ein Paket von Protokollen, deren Implementierung entweder direkt in den IPStack oder auch zwischen IP-Stack und Netzwerktreiber erfolgt. Für den Benutzer ist der Transfer transparent – er erkennt nicht, ob der Datentransfer über ein VPN oder eine normale IP-Verbindung erfolgt. Im Zusammenhang mit VPNs wird IPSec vermutlich immer im Tunnelmodus betrieben, aber auch eine normale Transportverbindung ist möglich. Der Unterschied besteht darin, dass die Datagramme bei Ersterem komplett verschlüsselt und in ein neues Paket gepackt werden. Der zweite Weg verschlüsselt nur den Datenteil, also die Nutzlast. Der originäre IP-Header bleibt erhalten, es kommt nur ein zweiter IPSec-Header hinzu. Die Unterschiede liegen in der Praxis im Bandbreitenbedarf, da im Transportmodus wesentlich weniger Overhead über die Leitung geht. www.lanline.de Die Sicherheit von IPSec beruht auf den Sicherheitsprotokollen Authentication Header (AH) und Encapsulating Security Payload (ESP), die innerhalb des IP-Datagramms untergebracht sind. AH umfasst Integritäts- und Anti-ReplayMöglichkeiten. Die Basis dafür bilden Prüfsummen, etwa mit MD5-Hash-Algorithmen beziehungsweise dem stärkeren SHA-1. Sie berechnen sich zum einen über die Daten des Pakets, zum anderen über die Quell- und Zieladresse und sorgen so dafür, dass sich die Adressen auf dem Transport nicht mehr unbemerkt verändern lassen. Damit wird vor allem dem gefährlichen IP-Spoofing, also dem Vortäuschen falscher Adressen beziehungsweise Identitäten ein Riegel vorgeschoben. Hauptsächlich zur Verschlüsselung der Paketinhalte, also der Nutzdaten, dient ESP. Es bietet in der aktuellen Implementierung auch Anti-Replay-Dienste Security Association Database Einträge bestehen aus: Sequence Number Counter Sequence Counter Overflow Anti-Replay-Window AH Information ESP Information Gültigkeitsangabe der SA IPSec Protocol Mode MTU Pfad Einträge sind indiziert mit: Security Parameter Index (SPI) Ziel-IP-Adresse des äußeren Headers IPSec Protokoll (AH oder ESP) sowie den Selektoren aus der Security Policy Database und Integritätssicherheit. Aus diesem Grund empfehlen manche wie Bruce Schneider in dem Beitrag “Cryptographic evaluation of IPSec” (Bruce Schnei- L AN line 12/2000 219 SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS der/Niels Ferguson, Counterpane Internet Security Inc.), ganz auf AH zu verzichten. Die für die Anwendung der beiden Protokolle erforderlichen Verschlüsselungsalgorithmen und Schlüssel werden in so genannten Security Associations (SAs) zusammengefasst. IPSec ist dabei komplett unabhängig von bestimmten Ver- Behandlung eingehender Daten Bei ankommenden Daten ist der Prozess etwas komplizierter. Diese Pakete umfassen einen Security-Parameter-Index, der sich in der SA wiederfindet. IPSec wird diesen Informationen zufolge dann sozusagen “rückwärts” angewendet. Als zusätzliche Kontrollmaßnahme, ob das Paket richtig behandelt wurde, erfolgt zudem Behandlung ausgehender Daten 1. Zieladresse, IPSec-Protokoll und • Aufsuchen des ersten passenden SPI referenzieren einen Eintrag in SPD-Eintrags; der SAD; 2. Anwendung der IPSec-Prozeduren • Aufsuchen der Einträge in der laut SAD Eintrag und Protokollierung; Security Association Database 3. Aufsuchen des passenden SPDentsprechend des vorgefundenen Eintrags anhand der nun entschlüsSPD-Eintrags. Wird kein Eintrag selten Selektoren; gefunden, muss einer erzeugt werden 4. Überprüfen, ob die richtigen (IKE). IPSec-Prozeduren angewandt • Anwendung der IPSec-Prozeduren worden sind; entsprechend der SAD-Einträge Beispiel für eine Security Policy Database schlüsselungsalgorithmen. Möglich sind zum Beispiel Kombinationen aus Transforms wie – esp-des und esp-md5-hmac, – ah-sha-hmac und esp-des und esp-shahmac oder die ältere Variante, – ah-rfc1828 und esp-rfc1829. Jeder Endpunkt einer IPSec-Verbindung verfügt über eine solche SA, die dann pro Transaktion für beide Kommunikationspartner gilt und im Security-Parameter-Index eindeutig gekennzeichnet ist. Die Security Policy Database (SPD) verwaltet die Konfigurationen für ein- und ausgehende Daten getrennt. Jeder Eintrag enthält Informationen darüber, wie ein Paket behandelt werden soll. Es gibt drei Möglichkeiten: Entweder wird es verworfen oder mit oder ohne Anwendung von IPSec weitergeleitet. Bei ausgehenden Daten sucht das System automatisch in der SPD entsprechend der dort eingetragenen Selektoren wie IP-Adressen, Quell- und Ziel-Ports oder User-IDs. Die Security Policy Database verweist dann auf die SA. Existieren dort Einträge, kommt IPSec entsprechend zum Einsatz. Fehlen die Informationen, kommt Internet Key Exchange (IKE) zum Zug, auf das dieser Beitrag später noch eingeht. 220 L AN line 12/2000 ein Abgleich mit den in der Security Policy Database eingetragenen Informationen. Der Aufbau der Security Associations erfolgt entweder manuell, was sich in großen Umgebungen als wenig praktikabel erweist, oder automatisch mittels Internet Key Exchange (IKE). IKE ist aus ISAKMP/Oakley hervorgegangen und stellt den Rahmen für den Schlüsselaustausch und die Authentifizierung zwischen den Kommunikationspartnern sowie für das Erzeugen und Verwalten von SAs und Schlüsseln – es übernimmt also das Key-Management. Dieses legt fest, welcher Datenverkehr geschützt wird, welche Kommunikationspartner betroffen sind und welche Transforms zum Einsatz kommen. IKE verwirklicht sichere Übertragungen in zwei Phasen: Zunächst entweder Main Mode oder Aggressive Mode und dann Quick Mode. In einer der ersten Phasen vereinbaren beide Seiten, wie der Datenaustausch zum Aufbau der SAs verschlüsselt werden soll und authentisieren sich gegenseitig über eine digitale Signatur. Anschließend werden über diesen Kanal im IKE Quick Mode die endgültigen aber zeitlich beschränkten SAs für die eigentlichen Sicherheitsprotokolle wie IP- Sec auf den Endpunkten aufgebaut und der Security-Parameter Index generiert. Im Gegensatz zur manuellen SA-Konfiguration lassen sich bei IKE auch mehrere Transforms definieren. Die Authentifizierung erfolgt bei IPSec in der Regel über Pre-shared Keys (Manual IPSec) oder über Public-Key-Verfahren wie RSA, Diffie-Hellmann oder Ähnliches. Erstere nutzen bereits vorinstallierte, symmetrische Schlüssel als Basis zur Erzeugung eines Hash-Werts, der bei beiden Endgeräten beziehungsweise Gateways gleich sein muss. Die asymmetrische Public-Key-Verschlüsselung nutzt eine vom Initiator automatisch generierte Zufallszahl, die mit dem öffentlichen Schlüssel verschlüsselt und vom Kommunikationspartner mit dem privaten Schlüssel entschlüsselt werden muss. Der gleiche Prozess wird dann umgekehrt gestartet. Haben beide Seiten die Authentifizierung erfolgreich bestanden, kann die eigentliche Datenübertragung beginnen. IPSec stellt damit einen sicheren Rahmen für den Aufbau von VPNs bereit. Allerdings zeigt sich auch hier die Wichtigkeit eines Gesamtkonzepts. So muss immer eines beachtet werden: IPSec sichert die Daten nur auf der Übertragungsstrecke ab. Dies bedeutet, dass beim gentunnelten Datenverkehr auf Gateway-Basis die Strecke zwischen Gateway und Client eines zusätzlichen Schutzes bedarf. Ebenso müssen zur Sicherung der Daten auf den Gateways, Servern und Clients andere Verfahren wie Verschlüsselung auf Applikationsebene greifen. (Ralf Nemeyer/gg) Ralf Nemeyer ist Network Security Engineer bei Integralis www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS VPN-ABRECHNUNGSSYSTEM FÜR GROSSKUNDEN Durchblick statt Dschungel Die Abrechnung von Internet-Diensten stellt viele Unternehmen vor Probleme. Der Grund: Internet-basierte Unternehmensnetze, so genannte IP-VPNs, verlangen eine besonders aufwändige Datenerfassung und -weiterverarbeitung. Nur mit Unterstützung spezieller Abrechnungssysteme lassen sich Kosten verursachergerecht zuordnen. irtuelle private Netze verbinden auf Basis der Internet-Technologie eine Unternehmenszentrale mit oft mehreren tausend Standorten sowie Home-Offices und mobilen Außendienstmitarbeitern. Die Deutsche Telekom stellt für diese homogene Plattform eine separate IP-VPNPlattform zur Verfügung, die sich modular an unterschiedliche Kundenwünsche anpassen lässt. Im Gegensatz zu Festverbindungen müssen Großkunden keine eigene Infrastruktur aufbauen, sondern zahlen nur für die angemietete Bandbreite. Neben die- V schen Telekom, bezeichnet diese Lösung als IESA Access Service (IESA = Intranet Extranet Service Area). Das Billing-Projekt startete bei einem großen deutschen Kunden mit rund 7000 Agenturen in Deutschland. In nur vier Monaten errichteten Teams der beiden Partner Dete-System und Telesens das Abrechnungssystem auf Basis der speziellen Anforderungen des Kunden. Die geschäftskritischen Kommunikationskosten wie Telefonie oder ISDN-Datenübertragung sollte die Zentrale abrech- Die Pre-Billing-Lösung “Billforce” ermittelt aus den Datensätzen den Teilnehmer, berechnet auf Basis des gültigen Tarifmodells die Kommunikationskosten und übergibt die Ergebnisse an ein Fakturierungssystem sen wirtschaftlichen Vorteilen verschaffen IP-VPNs allen Standorten direkten Zugang zu IP-basierten Kommunikationsdiensten wie Web oder E-Mail. Die Dete-System, die auf individuelle TK- und IT-Systemlösungen spezialisierte Tochter der Deut- 222 L AN line 12/2000 nen, die geschäftsunterstützenden Dienste wie Internet sollten die einzelnen Agenturen je nach Verbrauch tragen. Gefragt waren Rechnungen mit Einzelverbindungsnachweis, um bei Rückfragen der Agenturen jederzeit auf präzise Infor- mationen zugreifen zu können. Detaillierte Reports sollten zudem Auskunft über sämtliche Beträge und Verbrauchsdaten der Agenturen geben. MODULARER SOFTWARE-AUFBAU SORGT FÜR ZUKUNFTSSICHERHEIT Basis für das neue Abrechnungssystem ist die Billing-Lösung “Billforce” der Telesens AG. Die Grundstruktur dieser Applikation erlaubt es, auf Basis weniger Kernelemente unterschiedliche Produkte und Tarife zu definieren. Deshalb mussten die Projektverantwortlichen nur rund ein Drittel der Software individuell programmieren. Dazu trägt wesentlich die “Tarif Definition Language” (TDL) bei. Bei Tarifänderungen genügt es, in der Tarifstruktur einzelne Parameter neu zu definieren. Diese werden auf Wunsch automatisch an die darunter liegenden Tarifebenen “vererbt”. Gebührenmodelle lassen sich dadurch flexibel und ohne großen zeitlichen Aufwand gestalten. DATENERFASSUNG UND KUNDENWÜNSCHE Eine besondere technische Herausforderung für die Beteiligten war das Erfassen der IP-Daten. Das ist wesentlich komplexer als bei herkömmlichen PSTN-Netzen (Public Service Telephone Network). Werden die Verbindungs- und Ereignisdaten des Netzwerkes erfasst, sind zwar Informationen über den Netzwerk-Traffic vorhanden, die Daten lassen sich jedoch nicht dem einzelnen User zuordnen. Auch die Protokollierung des Netzzugangs-Servers hilft nur bedingt weiter. Denn dieser identifiziert meist nur die Rechner eindeutig, nicht jedoch die eingeloggten Anwender. Zudem sind viele verschiedene Datenquellen zusammenzufassen. Dazu gehören unter anderem Server-Logfiles sowie Router- und Firewall-Protokolle. Sind alle relevanten Daten gesammelt, liest sie ein Accounting-Tool und verdichtet sie zu Service Detail Records (SDRs). Im Anschluss daran werden diese dem Billing-System übermittelt, das als Client-/Server-Anwendung konzipiert ist. Es ermittelt den Teilnehmer und übernimmt seine Stammdaten aus einer www.lanline.de SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS laufend aktualisierten Datenbank. Billforce wendet das jeweils gültige Tarifmodell an, berechnet Entgelte und Rabatte und übergibt die Ergebnisse an das Fakturierungssystem. Das Produkt enthält dafür verschiedene Module wie ein Mediation Device, einen Tarifier sowie ein Output Center für die Übergabe der Rechnungsdaten. Ein externer Dienstleister kann so eine detaillierte Rechnung für die jeweilige Agentur sowie weitere Reports ausstellen. Über einen standardisierten Order-Entry-Prozess erlaubt Billforce es zudem, jederzeit neue Agenturen für den Kunden anzulegen oder vorhandene Daten zu ändern. Eine weitere Herausforderung des Projekts war die Integration in die bestehende Systemlandschaft. Das Thema Billing steht für die meisten Unternehmen in der Regel nicht an erster Stelle, und die Lösungen müssen deshalb oft nachträglich www.lanline.de installiert und mit den relevanten Systemelementen verknüpft werden. Um das Projekt pünktlich abzuschließen, war neben leistungsfähiger Software eine sorgfältige Planung wichtig. Die beiden Partner analysierten und interpretierten deshalb die Kundenanforderungen im Vorfeld sehr genau. WACHSTUMSMARKT IP-VPN FORDERT NEUE BILLING-LÖSUNGEN Nachdem schon neue Sicherheitsmechanismen für IP-VPNs einen enormen Wachstumsschub bedeuteten, erwarten Experten jetzt weiteres Wachstum. Der Grund: Neben Daten soll sich auch Sprache schnell und in ausreichender Qualität über das Internet übertragen lassen. Das ITMarktforschungsinstitut Infonetics prognostiziert eine jährliche Verdopplung der Ausgaben für IP-VPNs bis zum Jahr 2003. Dete-System und Telesens sehen in der neuen Lösung deshalb durchaus Potenzial. Für die Zukunft plant die Telekom-Tochter, die Billing-Lösung gemeinsam mit Telesens weiter zu standardisieren und als mandantenfähige Lösung am Markt anzubieten. Noch flexiblere Schnittstellen werden auch innerhalb anderer Kundenstrukturen Standardlösungen bieten und so Zusatzaufwand durch nachträgliche Änderungen vermeiden. Darüber hinaus strebt der Lösungsanbieter an, jederzeit neue höherwertige Dienste wie Unified Messaging, Videoconferencing oder E-CommerceApplikationen integrieren zu können. Denn als integrierte E-Business-Plattform sind den Anwendungsgebieten von IP-VPNs kaum Grenzen gesetzt. (Kerstin Bücker/gg) Kerstin Bücker ist freie Fachredakteurin für Telekommunikation. L AN line 12/2000 223 224 LANline 12/2000 Firewall VPN-Lösung PKI Mail-Verschlüsselung Dateiverschlüsselung Active Card Active Card Gold ● Algorithmic Research Aliroo All Secure Axent Private Wire Bintec www.lanline.de Borderware Celo Communications ● Privawall Magistrate VPN ● Raptor Firewall 6.5 ● Power VPN 6.5 ● X1000 ●● Bianca Brick X4000 ● IPsec VPN for Border● ware Firewall Borderware Firewall ● Server 6.1 Celocom VPN ● sonstige unterstützte Firewalls und VPNs Smarcardmgmt. ●● FW-1, VPN-1, Radius ●● ●● ● ● ●● ●● ●● ●● ●● ●● ● ●● ● ● ● ● ● ● ●● Betriebssysteme unterstützte Mail-Clients ● ● Outlook, Messenger, Groupwise, Entrust, Baltimore ●● ● ● ●● ●●● ●●●●● ● ●●● ● ● ●● ●●● ● ●● ●●● ● ● ● ● ●●●● ● ●●●●●●● ● ●● ● ●● Outlook ●●● ●●● ● ●● ●●● SMTP-Clients ●● ●● ●●● Windows 9x, ME Windows NT Windows 2000 Solaris HP-UX AIX Linux Netware Produktname Funktionen Standards DES 3DES DESX RC2 RC4 RC5 RC6 MD2 MD5 SHA-1 Blowfish MPPE IPSEC PPTP L2TP IP RIP v1 RIP v2 OSPF X9.30 X9.31 X9.32 X9.42 X9.56 X9.62 X9.63 Multiple Key Generation automatische Schlüsselerstellung Verschlüsselung v. Voice, Video Verschlüsselung v. Datenbanken Hersteller Protokolle Netscape 4.x MS-Internet-Explorer 5.x Algorithmen Produktart Borderware Firewall Server alle ●●● ● SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Marktübersicht: Verschlüsselungs-Software k. A. Cisco Router VPN 3000 VPN 5000 Pix Firewall Colubris Networks CNI1000 Range of wireless Routers CA Computer E-Trust Suite Associates Conware Secuware VPN Client Cryptogram Cryptogram Folder CV Cryptovision CV Act Library CV Act S/Mail Cipher Cisco Systems ●● ●● ● ●● ▼ ●●● ● ●● ●● ●● ● ● ●● ●● HW Security Module ● ● ●● ●● ●● ●● Wireless LAN Router ●● ●● ● ●● SW-Bibliothek ● CV Act Webgate Danu Industries Terminet Free S/Wan Project Free S/Wan ●● ● ●● ● ● ● ●● ●● ● ●● ● ● ●● ●● ● ● ● ● ● ● ●●●● ●●● ●●●●●●● ●●●●●●●● ●●●●●●●● ● ●●● ●● ●● ●● ● ● ● ●●●●● ● ● ● ●●● ● ● ●● ●●● ● ● ●● ●●●● ●●●●● ● ●● ● integrierte VPN Client/Server, integrierte Firewall E-Trust Betriebssysteme unterstützte Mail-Clients alle alle Windows 9x, ME Windows NT Windows 2000 Solaris HP-UX AIX Linux Netware unterstützte Firewalls und VPNs ● ● ● ● Firewall-1 ● ● VPN-1 Cisco Pix, 3Com, Nortel, Cisco Router ●● ● Kommunikationsverschlüsselung-, Authentisierung ● Funktionen Netscape 4.x MS-Internet-Explorer 5.x sonstige Standards DES 3DES DESX RC2 RC4 RC5 RC6 MD2 MD5 SHA-1 Blowfish MPPE IPSEC PPTP L2TP IP RIP v1 RIP v2 OSPF X9.30 X9.31 X9.32 X9.42 X9.56 X9.62 X9.63 Multiple Key Generation automatische Schlüsselerstellung Verschlüsselung v. Voice, Video Verschlüsselung v. Datenbanken Produktname VPN-1 VPN-1 Securemote Firewall-1 Firewall-1-VPN Firewall VPN-Lösung PKI Mail-Verschlüsselung Dateiverschlüsselung Hersteller Checkpoint Protokolle ● ●●●● ●●●●●●● ● ●●●● ●● ●●● ●●●●●●● Microsoft, Lotus, Netscape etc. ●●●●●●●● ●●●●●● ●●● ●●● MS Outlook, Lotus Notes, ● ● ● Novell Groupwise ●● ●●● alle ●● Linux alle ● ● SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS www.lanline.de Algorithmen Produktart LANline 12/2000 225 226 LANline 12/2000 ●● ● ●● Secure Remote Access ● ● ● ●● ● ●● ●● ●● Datenstromverschlüsse- ● lung ●● ● ●● ● ● ● www.lanline.de Genua Glück & Kanja Software Group Technologies Genugate Pro Crypto Ex Security Suite Group Mail Crypt ●● Highway One Highway VPN ●●● HOB Electronic HOBLink Secure HOBCom VPN-1000 IP Dynamics Ire IT-Sec Safenet VPN IT-Sec Outlook IT-Sec Datasafe IT-Sec-CA ● ● ●●● ●●● ●●● ●●● ●●● ● ●●● ●●●● ● ● ● ● ●● ●● ●● ● ● ● ● ● ● ● unterstützte Firewalls und VPNs ● ● ● ● ● ● ● SDK ●● ●● Datenverschlüsselung ●●● ●● ●● ● ● ● ●●●● ● ● ● ●● ●● ● ● ● ● ● ● Genugate, Genucrypt ●● ● ● ● ● ● IPsec, Checkpoint Firewall-1, Cisco Pix, Nortel, Axent Raptor ●● ●● ● ● ● Checkpoint VPN-1, Firewall-1, Cisco VPN 3000 ● ●● unterstützte Mail-Clients ●● ●●●●●●● ●● ●● ●●●● ●● ● ●●●● F-Secure F-Secure alle ● ●● Betriebssysteme ●● Windows 9x, ME Windows NT Windows 2000 Solaris HP-UX AIX Linux Netware Funktionen Netscape 4.x MS-Internet-Explorer 5.x sonstige Standards DES 3DES DESX RC2 RC4 RC5 RC6 MD2 MD5 SHA-1 Blowfish MPPE IPSEC PPTP L2TP IP RIP v1 RIP v2 OSPF X9.30 X9.31 X9.32 X9.42 X9.56 X9.62 X9.63 Multiple Key Generation automatische Schlüsselerstellung Verschlüsselung v. Voice, Video Verschlüsselung v. Datenbanken Produktname Linuxwall Filecrypto SSH VPN+Server VPN+Client VPN+Gateway VPN + Fun Communications Transport/S Firewall VPN-Lösung PKI Mail-Verschlüsselung Dateiverschlüsselung Hersteller Fbit F-Secure Protokolle alle SMTP-, POP-Clients MS Outlook 97, 98, 2000, ● ● ● MS Exchange Client 4/5 Lotus Domino, MS Ex●●● ● change 2000 ●●●●●●●● ●●●●●●●● ●●●● MS Outlook ●●● ●●● ●●● ●● ● SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Algorithmen Produktart LMF Lucent Managed Firewall Pipeline 50/75/85 MS Com Auto PGP Netasq Firewall Box F10-F100 Netscreen Netscreen 5/10/100/ 1000 Nokia IP-Series, Crypto Cluster Norman Data Access Control Defense Norman Privacy Norman Security Server Oeko SSH Radguard Radguard Cipro HQ Rohde & Schwarz Save DT Secgo Solutions Secgo Best Crypt Pro Secgo Crypto IP Secude Secude SDK Lucent Technologies Secude Filesafe ▼ ●●● ● ●● ●● ●●● ●● ●● ●● ●● ●● ● ● ●● ●● ● ●●● ●●● ●● ● ● ●● ●● ● ●● ● ● ● ● Kompriemierung ● ● ● ● Kompriemierung ●●●● ● ●● ●● ●● ● Windows 9x, ME Windows NT Windows 2000 Solaris HP-UX AIX Linux Netware unterstützte Firewalls und VPNs Betriebssysteme unterstützte Mail-Clients ● ● Netscape Mail, Outlook ● ● ● ● 98 und 2000 ●● ●●● ●●● ●●● ●● ●● ●●● ● ● ● ●●● ●●● ● ● ● ●●● ● ●● ●● ●● ●●● ● ●●● ● ●● ●● ●●● ● ●●● ● ●●●●●●● ●●● ●●● ●●● ● ● alle PKI end 2000 ●● ●● ● Funktionen Netscape 4.x MS-Internet-Explorer 5.x sonstige Standards DES 3DES DESX RC2 RC4 RC5 RC6 MD2 MD5 SHA-1 Blowfish MPPE IPSEC PPTP L2TP IP RIP v1 RIP v2 OSPF X9.30 X9.31 X9.32 X9.42 X9.56 X9.62 X9.63 Multiple Key Generation automatische Schlüsselerstellung Verschlüsselung v. Voice, Video Verschlüsselung v. Datenbanken Produktname Kobil Smart Key Firewall VPN-Lösung PKI Mail-Verschlüsselung Dateiverschlüsselung Hersteller Kobil Systems Protokolle ●●● Checkpoint FW-1, Nokia Crypto Cluster ● ● ● ●● ●● ●● ● ● ●● ●● ●● ● ● ●●● ● Outlook Outlook Outlook IPsec ● ● alle alle ● ●●● ●●● ●●● ● Lotus Notes 4.5.1-4.6.x ● ● ● ●● ●●● ● ● ● Netscape, Outlook, Out- ● ● ● ● ● ● ● look Express ●●● SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS www.lanline.de Algorithmen Produktart LANline 12/2000 227 228 LANline 12/2000 Secude Smart 2 you www.lanline.de Secude CSP Secude Net Security STP Secude Net Security Server Secude Cryptoki Secure Computing Sidewinder Security Server Safeword Plus Sidewinder Siemens Transon Sonic Sys Sonic Wall Tedas Virtual Gateland Gateland ● ●● ●● ●● ● ● ●● ●● ●● ●● ●● ●●●●●● ●●●●● ●● ●● transaktionsbasierte ● ● ● ● Signaturerstellung zertifikatbasierte An- ● ● ● ● meldung über Smartcard am NT-System ●● ●● ●● transportorientierte ●● ●● Sicherheitslösung transportorientierte ●● ●● Sicherheitslösung ● ●●●●● ●● ●● ●● ●● ●● HW-Router LAN-Capi ● ● ●● ●●● ●●● ●●● ●● ●● ● ● ● ● ●●● ●● ● ● ●●● ●● ● ● ●●● ●● ●● ● ● ●● ●● ● ●● unterstützte Firewalls und VPNs ● Betriebssysteme Windows 9x, ME Windows NT Windows 2000 Solaris HP-UX AIX Linux Netware Funktionen Netscape 4.x MS-Internet-Explorer 5.x sonstige ● ● ● Signaturen ● ERP-Security ● Standards DES 3DES DESX RC2 RC4 RC5 RC6 MD2 MD5 SHA-1 Blowfish MPPE IPSEC PPTP L2TP IP RIP v1 RIP v2 OSPF X9.30 X9.31 X9.32 X9.42 X9.56 X9.62 X9.63 Multiple Key Generation automatische Schlüsselerstellung Verschlüsselung v. Voice, Video Verschlüsselung v. Datenbanken Produktname Secude Authentemail Secude für R/3 Secude CA-Management Secude Transfair Firewall VPN-Lösung PKI Mail-Verschlüsselung Dateiverschlüsselung Hersteller Secude (Forts. v. S. 227) Protokolle ●● ●●●●●●● ●●●● ●●● ●● ●●● unterstützte Mail-Clients ● ● Netscape, Outlook ●● ● Outlook, Outlook Express ● ● ● ●●● ●●● ●●● ●● ●● ●● ● ● ● ● ● ● ● ●● ●● ●● ●●●● ● Sidewinder ●● IPsec proprietäre Firewall/VPN proprietäre Firewall/VPN ● ●●● ●●● ● ●● ●●● ●●● ●● ● SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Algorithmen Produktart Tenfour Sweden Thunderstore Trispen Technologies UtimacoSoftware Viasec LAN Crypt Consus-Server Watch Guard Westernacher Fire Box II W.Linux-Firewall ● unterstützte Mail-Clients ● ●●● ● ● ●● ● ● ●● ● ● ● ●●● Windows 9x, ME Windows NT Windows 2000 Solaris HP-UX AIX Linux Netware unterstützte Firewalls und VPNs Betriebssysteme ●●● ● ● ● ●● ● ● ●● TCP/IP Firewall-1 ● MAPI MAPI ●●● ●● ●●● ●●● ●●● ● ● ●● ● ●● ●● ● ●● ● ●● ●● ● ● ● ●●● ●● ●● Funktionen Netscape 4.x MS-Internet-Explorer 5.x Produktname sonstige Secureware Filecrypt ●● ●● Mail Secureware Filecrypt ● ●● File Telecrypt Data ● ● ● ● ATM-Verschlüsselung ● Tenfour TFS-SM ●●●●● ●● S-Cryptor ● On-the-fly-encryption X-Tra Secure ● ● On-the-fly-encryption ● ● S-Mail ● IP Granite ●● ●● Safeguard Sign & Crypt 2.10 Safeguard Sign & Crypt 3.0 Outlook Safeguard Sign & Crypt 3.0 for Lotus Notes Safeguard PICI Safeguard Easy Standards DES 3DES DESX RC2 RC4 RC5 RC6 MD2 MD5 SHA-1 Blowfish MPPE IPSEC PPTP L2TP IP RIP v1 RIP v2 OSPF X9.30 X9.31 X9.32 X9.42 X9.56 X9.62 X9.63 Multiple Key Generation automatische Schlüsselerstellung Verschlüsselung v. Voice, Video Verschlüsselung v. Datenbanken Firewall VPN-Lösung PKI Mail-Verschlüsselung Dateiverschlüsselung Hersteller Telecrypt Protokolle ● ●● Festplattenverschlüsselung internes Zertifikatsmgmt., Server ● ● ● ●● ●● ●● ●● ● ●● ● ● ●● ● ●●● ●● ● ●● ●● ●●● ● ●●● ● alle FW, Consus-eigenes VPN alle über SMTP ●●● ●● Linux-Firewall, Cisco Pix Exchange, Notes ●●● ● SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS www.lanline.de Algorithmen Produktart LANline 12/2000 229 SCHWERPUNKT: VIRTUAL PRIVATE NETWORKS Anbieter: Verschlüsselungs-Software Hersteller/Anbieter Activecard/R2R Research to Rise Algorithmic Research All Secure All Secure/Recomp Aliroo/The Bristol Group Axent/Brain Force Software Axent/Entrada Telefon 08032/9899-0 Produkt Activecard Gold Preis in DM 254 06023/948560 06201/90450 02664/9953-43 06103/2055300 089/317004-0 05251/14560 Bintec Communications/ Bintec Communications/ BSP.Network Borderware Technologies/ Entrada Borderware Technologies/ Recomp Celo Communications Checkpoint Software/ Riedlbauer Checkpoint Software/ IQproducts Checkpoint Software/ R2R Research to Rise Checkpoint Software/ The Bristol Group Cipher 089/44229-0 0941/92015-0 Private Wire Magistrate VPN Magistrate VPN Privawall Raptor Firewall Raptor Firewall Power VPN 6.5 Bianca Brick X4000 X1000 k. A. 4890 k. A. k. A. 3550 k. A. k. A. k. A. ab 835 k. A. 08032/9899-0 Borderware Firewall Server 6.1 IPsec VPN for Borderware Firewall Celocom VPN VPN-1 Firewall-1 VPN-1/Secure Remote Firewall-1-VPN 06103/2055300 VPN-1 k. A. 04061/135383 k. A. Cisco Systems/Ace 07121/9758-0 390520000 $ ab 1500 ab 9000 ab 9000 ab 4000 1495 $ Colubris Networks CA Computer Associates Conware Cryptogram/Onlinestore Cryptovision Danu Industries/Brain Force Software Free S/Wan Project/ Riedlbauer F-Secure F-Secure/Ace F-Secure F-Secure/Ace F-Secure/Centracon F-Secure F-Secure/Entrada F-Secure/Recomp Fbit/Frank Bernhard Fun Communications Genua Glück & Kanja Group Technologies Highway One HOB Electronic IP Dynamics Ire/Deltacom IT-Sec Kobil Systems 230 05251/14560 02664/9953-43 06192/959-102 02151/554810 089/944940-0 Cisco Router VPN 3000 VPN 5000 Pix Firewall 001/450/680-1661 CNI1000 Range of Wireless LAN Routers 089/9961-9110 E-Trust Suite 0721/9495-0 Secuware VPN Client 06074/810490 Cryptogram Folder 0209/167-2450 CV Act Library CV Act S/Mail CV Act Webgate 089/317004-0 Terminet 02151/554810 089/24218425 07121/9758-0 089/24218425 07121/9758-0 02171/7203-0 089/24218425 05251/1456-0 02664/9953-43 Free S/Wan Filecrypto Filecrypto VPN+ VPN+ VPN+ SSH Filecrypto VPN+Server VPN+Client VPN+Gateway 069/90478980 Linuxwall 0721/964480 Transport/S 089/991950-0 Genugate Pro 069/800706-0 Crypto Ex Security Suite 0721/4901-118 Group Mail Crypt 089/13064-269 Highway VPN 0911/9666271 HOBLink Secure HOBCom 001/408/369-6900 VPN-1000 02234/96603-0 Safenet VPN 02161/6897-0 IT-Sec Outlook IT-Sec Datasafe IT-Sec-CA 0611/5802-416 Kobil Smart Key LANline 12/2000 ab 968 Hersteller/Anbieter Lucent Technologies/ BSP.Network Telefon 0941/92015-0 MS Com Netasq Netscreen/BSP.Network 040/25490054 02234/6037-0 0941/92015-0 Nokia/Netstuff 06172/9258191 Norman Data Defense 0212/267180 Norman Data Defense/IAP 040/306803-0 Norman Data Defense/IBV 07621/409230 Oeko/Müller & Brandt 02261/979364 k. A. ab 2000 ab 5000 k. A. Radguard/Entrada Red Creek/PSP Net Rohde & Schwarz Secgo Solutions/Intermedia 05251/14560 06430/2234 030/65884-237 02203/182374 ab 2400 Secgo Solutions/IT-Sec Secude 02161/6897-0 06151/8289743 k. A. 290 230 19167 244 19558 k. A. ab 139 244 k. A. 244 ab 250 k. A. 244 k. A. ab 1164 ab 1164 ab 4871 3579 k. A. ab 22000 ab 98 4700 k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. ab 99 Secure Computing/Recomp 02664/9953-43 Secure Computing/Thales 040/251522-0 Siemens 09131/7-44223 Sonic Sys/R2R Research to 08032/9899-0 Rise Tedas 06421/4099-0 Telecrypt Telecrypt/Conware Tenfour Sweden/Semco Thunderstore Trispen Technologies/ The Bristol Group Utimaco Software Produkt LMF Lucent Managed Firewall Pipeline 50/75/85 Auto PGP Firewall Box F10-F100 Netscreen 5/10/ 100/1000 IP Series Crypto Cluster Norman Security Server Access Control Norman Privacy Access Control SSH Kame GPG Radguard Ciplo HQ k. A. Save DT Secgo Best Crypt Pro Secgo Crypto IP Secgo Crypto IP Secude SDK Secude Filesafe Secude Authentemail Secude für R/3 Secude CA-Management Secude Transfair Secude Smart 2 you Secude CSP Secude Net Security STP Secude Net Security Server Secude Cryptoki Sidewinder Security Server Safeword Plus Sidewinder Transon Sonic Wall Preis in DM 29000 ab 845 80 4495 ab 1141 ab 1500 $ k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. ab 1725 117 k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. k. A. ab 7662 6525 5745 k. A. ab 2800 Virtual Gateland Gateland 02203/9128751 Telecrypt Data 0721/9495-0 Secuware Filecrypt Mail Secuware Filecrypt File 06122/77000 Tenfour TFS-SM 0031/497/383505 S-Crypto X-Tra Secure S-Mail 06103/2055300 IP Granite 257 ab 1290 k. A. 260 06171/917-210 Safeguard Sign & Crypt 2.10 Safeguard Sign & Crypt 3.0 for Outlook Safeguard Sign & Crypt 3.0 for Lotus Notes Safeguard PICI Safeguard Easy LAN Crypt Consus-Server Fire Box II k. A. W. Linux-Firewall k. A. Viasec/Interchip 089/92098-0 Watch Guard/R2R Research 08032/9899-0 to Rise Westernacher 0721/9772-125 250 ab 1900 k. A. k. A. k. A. k. A. k. A. k. A. 69041 k. A. k. A. k. A. ab 11500 www.lanline.de fokusE-COMMERCE CONTENT-MANAGEMENT-SYSTEME Anforderungen und Kriterien Content-Management-Systeme (CMS) sind in der Lage, komplexe dynamische Inhalte zu erzeugen, bereitzustellen und zu verwalten. Sie gelten deshalb als Grundlage für professionelle Web-Auftritte. Ein durchdachtes Konzept können aber auch sie nicht ersetzen. Folgende Überlegungen und Beispiele sollen zeigen, welche Schritte und Prüfungen in der Praxis notwendig sind, um das richtige CMS erfolgreich zu installieren und zu betreiben. Grundsätzlich gibt es bei Web-Content-ManagementSystemen zwei Blickwinkel auf den Content: Dies ist zum einen die Sicht des ContentCreators (oder auch Providers) und zum anderen die des Content-Consumer. Beide arbeiten mit Content, haben aber andere, individuelle Anforderungen. Zwischen beiden Parteien steht – quasi als Vermittler – das Content-ManagementSystem (CMS). Es muss sowohl dem Content-Creator als auch dem Content-Consumer spezifische Möglichkeiten anbieten, um eine individuelle Nutzenmaximierung zu gewährleisten. Stellt man einen Autor innerhalb eines CMS- und Workflow-basierten Redaktionssystems und den Betrachter der fertigen redaktionellen NewsSeiten gegenüber, ist die Rollenverteilung (Wer pflegt hier Content ein, und wer betrachtet ihn?) noch klar. Diese beginnt aber spätestens bei einem Dis- 232 L AN line 12/2000 kussionsforum zu verschwimmen. Denn hier ist eine klare Trennung von Creator und Consumer nicht mehr möglich, da beide Parteien Inhalte wie beispielsweise Fragen und Antworten einpflegen. Diese Erkenntnis fordert eine genaue Planung und Einordnung der technischen Möglichkeiten und Anforderungen. Kommt jetzt noch Dynamik ins Spiel – also das Erzeugen zeit- und zustandsabhängigen Contents – müssen exakte und gut greifbare Kriterien definierbar sein, um die Klarheit der Rollenverteilung zu wahren. breite von Möglichkeiten ab. Ob darunter verstanden wird, dass das Aussehen einzelner Web-Seiten sich von Zeit zu Zeit ändert oder ob es andere Bedingungen gibt, die zu unterschiedlicher Darstellung der gleichen Seite führen, spielt für die Auswahl des Systems eine entscheidende Rolle. Viele Systeme verabschieden sich sogar gänzlich von dem Konzept der Seite als Inhaltscontainer, indem sie den Inhalt nicht innerhalb von Seiten ablegen, sondern ihn davon trennen. Dadurch wird die Seite zu einer Art Ansicht, unter der je nach Kriterium (das können zum Beispiel Benutzergruppenzugehörigkeit, Standort, Sprache, Betrachtungszeitpunkt oder ähnliches sein) unterschiedliche Inhalte zu sehen sind. Auch die Präferenzen des Betrachters – ob er sie nun explizit angegeben hat (etwa bei einer Benutzerregistrierung) – oder ob sie implizit aus der Beobachtung seines bisherigen Verhaltens abgeleitet werden können (Customer Tracking), spielen eine große Rolle. ENTSCHEIDUNGSKRITERIEN Bei der rein statischen Anlage einer Website (zum Beispiel als Verzeichnisbaum auf der Festplatte des Web-Servers) ändert sich eine Seite zwischen zwei Aufrufen nur dann, wenn jemand die HTML-Datei bearbeitet hat. Da innerhalb einer HTML-Seite aber Struktur (HTML-Tags) und Inhalt vermischt sind, ist es für einen reinen Content-Creator wie etwa einen Redakteur oder einen anderen Autor schwierig und DYNAMIK Gerade um dynami- schen Inhalt ins Web zu bringen, existieren die verschiedensten Ansätze. Was dabei gute und schlechte Ansätze sind, entscheidet sich nach den zu erreichenden Zielen und Anforderungen, die ganz unterschiedlich ausfallen können. Schon das Wort “dynamisch” deckt eine ganze Band- Über das JDBC-API unterstützen Java-basierende CMS alle gängigen Datenbanken www.lanline.de fokusE-COMMERCE unter Umständen sehr zeitaufwändig, zwischen den Inhalten und der Struktur der Seite zu unterscheiden. Kleinere Änderungen können schnell zu einem ungewollten Aussehen der Seite führen oder aber sehr lange dauern, wenn der Content-Creator die Feinheiten von HTML nicht ausreichend kennt. Noch komplizierter wird es, wenn etwa Client- oder Serverseitig Javascript oder eine andere Skriptsprache in die WebSeiten eingebunden ist. Schon für relativ einfache Anforderungen ist daher zusätzlich zum Content-Creator ein Programmierer mit entsprechender Erfahrung erforderlich. Wer mit einer statischen Website mit sporadischen Änderungen leben kann und keine interaktiven Anforderungen hat, braucht kein CMS. Wenn aber durch das Betreiben und die permanente Anpassung des Web-Auftritts laufende Kosten entstehen, dann rechnet sich dessen Einsatz schon sehr bald. Ein CMS muss aus diesen Gründen in der Lage sein, den Inhalt der Web-Präsenz strikt von ihrer Struktur zu trennen. Ist dies gegeben, dann muss das System – auf der Grundlage des gleichen Contents – verschiedene Präsentationsformen unterstützen. Dies sollte neben HTML und WML (WAP) auch XML für den B2B-Datenaustausch sein. Optimal ist es natürlich, wenn die Wahl der Präsentationsform völlig frei ist. Dann können mit dem gleichen Content unterschiedliche Dokumente generiert werden. Das kann je nach Bedarf etwa ein PDF-Dokument sein oder auch eine WAP-Seite für Handys. 234 L AN line 12/2000 Notwendige Funktionen eines CMS – Mit einer frei definierbaren Kategorisierung lässt sich Content beliebig und sinnvoll gruppieren. – Volltextsuche über alle Texte. Wenn eine Kategorisierung möglich ist, dann auch die Kombination verschiedener Kriterien (beantwortet Fragen wie “Welcher Forumsbeitrag im Forum ‘A’ enthält den Text ‘X’ aber nicht den Text ‘Y’). Diese Funktionen müssen die Rechte des jeweiligen Benutzers berücksichtigen. Das heißt, ein Benutzer darf nur denjenigen Content sehen, an dem er entsprechende Rechte hat. – Eine rollenbasierte Benutzerverwaltung dient unter anderem dazu, die Zugriffsrechte auf Content und Seiten (im Sinne von Struktur, welche den Content ins Bild setzt) zu steuern. Durch die Rollenbasierung wird der Pflegeaufwand minimiert. – Multi-Domain-Unterstützung: Unterstützung mehrerer Domänen, unter denen Struktur und Content geteilt werden können (aber nicht müssen). So ist es beispielsweise möglich, Intranetund Web-Auftritt mit nur einer Content-Basis zu realisieren oder mehrere Marktplätze mit einem einzigen System zu verwalten. – Eine Template-Engine, die eine Mehrfachverwendung nicht nur des Contents, sondern auch von Strukturelementen erlaubt. Erst diese gewährleistet die effiziente Anpassung einer Website an sich ändernde Layout-Anforderungen. – Unterstützung von Mehrsprachigkeit (auch fremde Zeichensätze wie beispielsweise chinesisch, arabisch). Hier ist zu beachten, dass der Content auch entsprechend darstellbar ist und nicht lediglich gespeichert werden kann. – Automatische Präsentation von XML in einer beliebigen Präsentationsform (HTML, WAP, PDF etc.). Dies ist etwa via XSL-T zu realisieren. – Frei definierbare Metadaten für sämtliche Objekte im System (zum Beispiel Benutzer und Content) befreien von dem Zwang der zweckfremden Verwendung eines bereits bestehenden Metadatensystems. – Strukturierungsmöglichkeiten für Content und Seiten. – Ablage und Produktion beliebiger Daten (Bilder, Animationen, Sound, Texte, Archive ...). – Ad-Server-Funktionalität für Links (etwa für Banner und kostenpflichtige Inhalte). – Weitere integrierte Kommunikations- und Interaktionskomponenten wie Forum, Chat, Voting, Guestbook oder Bannerverwaltung. – Beliebige Erweiterbarkeit durch eine ihrerseits erweiterbare Programmier- beziehungsweise Skriptsprache. – Anbindung beliebiger Fremdsysteme durch dokumentierte Standard-APIs. Auch Datenbanken fallen unter diesen Punkt. – Plattform- und Datenbankunabhängigkeit. – Skalierbarkeit: auch durch die Möglichkeit, ein gewachsenes System möglichst einfach auf andere Plattformen zu übertragen und bei Bedarf zu verteilen, statt dort komplett neu aufzusetzen (Up- und Rightsizing). Gibt es für den Content (oder bestimmte Contents) einen Freigabe-Workflow, dann sollte das Content-Management-System auch die- sen abbilden können. Andernfalls ist er außerhalb des CMS zu realisieren, mit der Notwendigkeit, Schnittstellen zwischen dem eingesetzten Workflow-System und dem Content-Management-System zu nutzen und zu konfigurieren. Je nachdem, wie viele CMS-fremde Zusatzsysteme zu einer Gesamtlösung zusammengebunden werden sollen, erhöhen sich Kosten und Integrationsaufwand. Deshalb ist abzuwägen, wie stark integriert die Lösung schon von sich aus sein soll, welche Funktionalitäten sie also von Haus aus mitbringt. Features wie eine frei definierbare Kategorisierung, Volltextsuche, rollenbasierte Benutzerverwaltung, MultiDomain-Unterstützung für komplexe Web-Auftritte und Marktplätze sollten genauso zum Funktionsumfang eines CMS gehören wie Mehrsprachigkeit und Interaktions- und Kommunikationskomponenten. Ein ganz wichtiges Kriterium ist außerdem die Plattformunabhängigkeit. Hinzu kommen noch einige weitere Funktionen, die samt ihrem Nutzen in der nebenstehenden Tabelle aufgeführt sind. TECHNISCHE RAHMENBEDINGUNGEN Durch die An- forderung der Plattformunabhängigkeit drängt sich als Basistechnologie ein System auf, das komplett in Java implementiert ist. Auch hinsichtlich der Forderung, datenbankunabhängig zu sein, hält Java mit dem JDBC-API eine Möglichkeit parat, diese Anforderung zu erfüllen. Daneben gibt es unzählige Java-APIs, mit denen sich viele Fremdsysteme anbinden lassen (zum Beispiel über das Java Naming and Directory Interface). Da Java mit dem Servlet-API auf der Server-Seite auch noch ein www.lanline.de fokusE-COMMERCE ausgezeichnetes Instrument zur Realisierung von ServerProzessen in Verbindung mit Webservern anzubieten hat, erscheint es als die Grundlage eines CMS schlechthin – wären da nicht die überholten Unkenrufe bezüglich der schlechten Performance-Werte. Überholt deshalb, weil Java zwar noch eine relativ junge Sprache ist, die sich in letzter Zeit jedoch mächtig entwickelt hat. Kritikpunkte bezüglich Geschwindigkeit, Stabilität und Einsetzbarkeit, die noch für frühere Versionen von Suns JDK (Java Development Kit) richtig waren, sind mittlerweile für die aktuelle Version 1.3 schlichtweg falsch. Damit ist die angeblich unzureichende Leistungsfähigkeit von Java nicht mehr als ein Mythos. Wer noch diesen Behauptungen anhängt, verschließt sich dem aktuellen Stand der Technik und einer ausgereiften Technologie. Die folgende Anforderungsliste soll den technologischen Rahmenbedingungen ein konkretes Gesicht verleihen: – Unterstützung kommerzieller Hochleistungsdatenbanken (zum Beispiel Oracle 8i) für den Einsatz in High-endUmgebungen. – Für günstige Installationen oder den Testbetrieb sollten leistungsfähige Open-Source-Datenbanken (beispielsweise Interbase 6.0) ebenso unterstützt werden. – Das CMS sollte prinzipiell auf allen Web-Servern laufen, jedoch mindestens mit Apache (Open-Source) und dem Microsoft-IIS. – Die Software (Server ebenso wie Clients) muss die Systemverfügbarkeit auf Windows, Linux, Solaris und www.lanline.de weiteren Unix-Derivaten sicherstellen. – Die Programmierung des Systems sollte über das Internet möglich sein. – Als Programmiersprache bieten sich Java oder auf Java basierende Sprachen an. Außerdem sollte eine beliebige Erweiterbarkeit über Ja- va-Klassen, Java-Beans und die Enterprise-Java-Beans (EJB) gegeben sein. SCHLÜSSEL ZUM ERFOLG Welche enorme Bedeutung die Umsetzung der beschriebenen Anforderungen – sowohl technologisch als auch monetär – für den reibungslo- sen Betrieb eines CMS hat, lässt sich am besten an einem zwar konstruierten, aber dennoch praxisrelevanten Beispiel zeigen: Ein deutsches Unternehmen plant als Schritt in das E-Business die Schaffung einer Plattform für den Handel mit mechanischen Teilen. An das Sys- L AN line 12/2000 235 fokusE-COMMERCE tem werden weltweit über 2500 Lieferanten und Händler angeschlossen, die zunächst die Verfügbarkeit von Ersatzteilen und die entsprechende Logistik planen und umsetzen. Da man die Planzahlen für Hits und Umsätze schnell übertrifft, ist schon kurz nach Einführung des Extranet-Portals klar, dass die Site ein Erfolg werden wird. Um das Angebot noch attraktiver zu gestalten, wird deshalb ein weiterer kommerzieller Bereich eingerichtet, der auch für das Internet geöffnet wird. Innerhalb dieses Bereichs können die Besucher der Site von den Händlern des eigentlichen Extranets gebrauchte Werkzeugmaschinen ersteigern und bestimmte Teile zu äußerst günstigen Konditionen beziehen. Für einige Händler ist der Erfolg so gewaltig, dass sie sogar mit dem Portal-Betreiber die Anmietung von Werbeplätzen für Banner vereinbaren und zusätzlich ein entgeltliches Forum für die technische Betreuung der Website-Besucher anbieten. Die Verrechnung der Provisionen für den Portal-Betreiber und die angeschlossenen Händler erfolgt automatisch im System. Bereits nach kurzer Zeit wird die geplante Zahl von 150.000 Hits deutlich übertroffen: Sie beläuft sich auf über eine Million – bei stattlichen 15.000 Kunden. So liest sich eine SuccessStory im Internet – mit dem richtigen Werkzeug zielstrebig umgesetzt. Dass das auch anders ausgehen kann, sieht man erst, wenn man das Gesamtprojekt kritisch analysiert und hinter die Kulissen schaut: Ein solches System muss nämlich, da es weltweit zum Einsatz kommt, Content mehrerer 236 L AN line 12/2000 Sprachen problemlos verwalten und produzieren können. Das Extranet setzt auf einem System auf, das Benutzergruppen verwalten und gewisse logistische Anforderungen in Workflows verarbeiten kann. Eine integrierte Shop-Lösung stiegen ist (als Kenngröße seien die 1.000.000 Hits genannt). Dies wiederum bedeutet für das CMS die Portierung etwa von einem WindowsNT-System mit SQL-Server 7.0 auf eine Sun-EnterpriseMaschine mit Sun Solaris V7 Bei plattformunabhängigen CMS können Redakteure und Administratoren mit einem Web-Browser über das Internet auf das CMS zugreifen mit verschiedenen Währungen und Steuersätzen muss entweder anbindbar oder selbst erstellbar sein. Bei der Menge der angestrebten Transaktionen ist zudem zu erwarten, dass eine Schnittstelle zu einem ERP-System notwendig wurde. Ist von “schnell übertroffenen Planzahlen und Umsätzen” die Rede, kann man außerdem davon ausgehen, dass der Traffic schnell ange- und einem Oracle-8i-Enterprise-RDBMS (etwa mittels XML-Export und -Import). Das Öffnen eines Teilangebots für das Internet erhöht den Verkehr auf der Site zusätzlich, was die Verwendung der identischen Datenbasis erforderlich macht. Weiterhin wurde das Angebot selbst um mehrere entgeltliche Foren erweitert. Der Betreiber muss also die Möglichkeit haben, Banner und deren Schaltungen innerhalb von Kampagnen zu organisieren und gegenüber seinen Kunden abzurechnen. FAZIT Man könnte diese Auf- listung beliebig fortsetzen. Ihr Beispiel zeigt aber zumindest, welche zentrale Bedeutung dem CMS zukommt und welche “kleinen Fallstricke” in der Erfüllung oder Nicht-Erfüllung bestimmter Features lauern. Auch hier kann bei Expansion im E-Commerce aus Weisheit “kleine Ursache, große Wirkung” eine teure Erkenntnis werden. Umso wichtiger ist die Erfüllung der Hauptanforderungen an ein Content-Management-System: Soft- und -Hardware-technische Unabhängigkeit für Server und Clients, dokumentierte offene Schnittstellen, integrierte Kommunikations- und Interaktionskomponenten und die Abbildbarkeit von Prozessen. Die Beantwortung der Frage, ob ein proprietäres, systemgebundenes redaktionelles System für alle Zeiten genügt oder ob es besser ist, gleich auf eine Plattform zu setzen, deren Wachstum, Individualität und Leistungsfähigkeit man zumindest mitbestimmen kann, hängt letztlich von der gewählten E-Business-Strategie ab. Tatsache aber ist, dass sich Anforderungen und Prozesse im E-Commerce mit atemberaubender Geschwindigkeit entwickeln. Und wer nicht flexibel ist, verbaut sich die damit verbundenen Chancen selbst und verschenkt bares Geld – auch das ist eine Tatsache. (Alf Leue/gh) Alfred Leue ist Geschäftsführer von Bouncy Bytes Software. www.lanline.de fokusE-COMMERCE JSP, SERVLETS UND XML Architektur für Anwendungen Während Java auf dem Client der Durchbruch noch nicht so recht gelang, erfreut sich die plattformunabhängige Programmiersprache auf der ServerSeite wachsender Beliebtheit. Denn die Kombination aus Java-Servlets, Java-Server-Pages (JSP) und XML eignet sich hervorragend als Architektur für flexible, skalierbare und vom Betriebssystem unabhängige E-Commerce-Anwendungen. Es gibt in der Praxis die verschiedensten Möglichkeiten, E-Commerce-Anwendungen zu strukturieren. Viele Hersteller entwickeln in diesem Umfeld proprietäre Anwendungen, die vor der Benutzung zunächst einmal auf den ClientRechnern installiert werden müssen und meist an ein bestimmtes Betriebssystem gebunden sind. Im Gegensatz dazu stehen die so genannten “Thin-Client”-Lösungen, die in den allermeisten Fällen auf der Nutzung der bestehenden Web-Infrastruktur basieren. Mit anderen Worten: Die Benutzerschnittstelle auf den Client-Rechnern stellt ein gängiger Web-Browser zur Verfügung. Die Anwendungsdaten werden vom Server, der die gesamte Anwendungslogik bereitstellt, in HTML oder XML kodiert und per HTTP an den Client geschickt. Der Server generiert diese dynamischen Web-Seiten aus den in Datenbanken gehaltenen Anwendungsdaten und aus Benutzer- 238 L AN line 12/2000 wünschen. Ein Beispiel: Ein Online-Buchhändler bietet seinen Kunden zunächst ein in HTML kodiertes Suchformular. Nach Auswertung der Stichworte, die der Kunde angegeben hat, kontaktiert der Server eine Datenbank und erhält von dieser eine Reihe von Buchtiteln, die zu den Stichworten passen. Diese werden nun in HTML umgesetzt und an den Web-Browser des Clients geschickt, der die Seite als Antwort auf das Abschicken eines Formulars im Fenster darstellt. Diese heute am häufigsten eingesetzte Architektur Web-basierter E-Com- Bild 1. 3-Tier-Architektur mit Servlets merce-Anwendungen wird auch als “3-Tier-Architektur” bezeichnet. Bild 1 stellt diese Variante grafisch dar. Jeder der drei Bereiche übernimmt dabei unterschiedliche Aufgaben. Tier 1 stellt die webbasierte Benutzerschnittstelle dar. Hier gibt der Benutzer seine Anfragen ein und erhält die Antworten der Anwendung. Tier 2 ist das Kernstück, denn dort ist die ganze Anwendungslogik untergebracht. Tier 3 schließlich ist für die Datenhaltung zuständig und wird über SQL angesprochen. Für die Umsetzung von Tier 2, die sich im Wesentlichen auf die Erstellung eines Anwendungsprogramms konzentriert, gibt es heute eine Vielzahl von Möglichkeiten. Bekannte Techniken für die Erzeugung dynamischer Web-Seiten, die heute auch für E-Commerce im Einsatz sind, sind CGI-Skripte in Perl, PHP3 oder Microsofts Active Server Pages (ASP). In diesem Artikel betrachten wir eine spezielle Variante dieser 3-Tier-Architektur, in der Tier 2 durch die so genannte JavaServlets realisiert wird. Die Servlet-Technologie ist eine logische Weiterentwicklung und Kombination zweier schon länger existierender Ansätze zur Erzeugung dynamischer Web-Seiten: CGI-Programme und den Java-Applets. CGI (Common Gateway Interface) ist wie schon erwähnt eine Server-seitige Technik, während Applets kleine JavaProgramme sind, die im Browser des Clients ausgeführt werden. Servlets sind ebenfalls eine Server-seitige Technologie, aber sie werden nicht in Perl, sondern in Java geschrieben. Ein einzelnes Servlet ist ein üblicherweise relativ kleines Programm, das vom Benutzer wie ein CGI-Skript aufgerufen und dann mit den entsprechenden Parametern ausgeführt wird. Man kann sich das wie die Ausführung eines Applets in einer Java Virtual Machine vorstellen, nur, dass eben sämtliche Aktivitäten auf dem Server stattfinden. Wie Bild 1 verdeutlicht, benötigt man für eine Servlet-basierte Lösung eine Servlet-Erweiterung für den Web-Server, praktisch eine virtuelle Java-Maschine auf dem Server. Einige Web-Server wie etwa der Iplanet-Server unterstützen von Haus aus Servlets. Für die Web-Server von der Apache Group, Microsoft, Zeus, Netscape und O’Reilly bietet Allaire mit Jrun Erweiterungen an. Auf einem Web-Server mit Servlet-Unterstützung definiert der Administrator zunächst ein spezielles virtuelles Verzeichnis, für das alle HTTP-Anfragen an die Servlet-Engine weitergegeben werden. Üblicherweise ist dies das “/servlet” Directory. Wird beispielsweise der GET Aufruf “http://www.mybookshop.de/ servlet/Search?titel=potter” von einem HTML-Formular auf einer Suchseite empfangen, lädt die Java-Virtual-Machine (JVM) auf dem Web-Server die Java-Klasse Search.class. Denn Servlets sind gewöhnli- www.lanline.de fokusE-COMMERCE che Klassen, die von einer generischen Basisklasse abgeleitet sind und somit ein bestimmtes API (Application Programming Interface) implementieren. Dieses API umfasst Methoden zur Initialisierung des Servlets sowie zur Bearbeitung von GET- und POST-Anfragen. Die Formularparameter kapselt der Servlet-Engine in dem so genannten RequestObjekt. Dies nimmt dem Servlet-Entwickler die Aufgabe ab, die Formulareingaben selbst aus der übergebenen Zeichen- SQL-Anfrage eingebaut und an die zentrale Datenbank geschickt. Es ist aber auch problemlos möglich, andere Server zum Beispiel mittels Corba oder TCP-Sockets anzusprechen. Gerade für die Abbuchung eines Kaufpreises per Kreditkarte werden üblicherweise spezielle Server wie der Microsoft-Commerce-Server oder der IBM-Websphere-Payment-Manager verwendet, die wiederum die Transaktionsabwicklung mit den Servern von Banken übernehmen. Bild 2. Typische Funktionalität eines Servlets: Die Formularparameter werden in eine SQL-Anfrage eingesetzt, und die Ergebnistabelle wird als HTML-Seite formatiert. kette fischen zu müssen. Die für die Entwicklung von Servlets benötigten Klassen der Pakete javax.servlet und javax.servlet. http sind in einer JAR-Datei zusammengefasst [1]. Liegt diese im CLASSPATH, kann jeder Java Compiler zur Entwicklung von Servlets verwendet werden. Um die Benutzeranfrage schließlich zu bearbeiten, wird in der Java VM ein neuer Thread auf der Methode doGet gestartet. Dies ist der Punkt, an dem die Kontrolle von der Servlet-Engine an das eigentliche Java-Programm übergeben wird. Mit den Eingaben aus dem HTML-Formular kann nun das Servlet beliebige Funktionalität ausführen. Typischerweise werden die übergebenen Parameter in eine 240 L AN line 12/2000 Neben der Abwicklung der Business-Logik ist auch die Kodierung der Ergebnisse – zum Beispiel in HTML – Aufgabe des Servlets. Dazu wird dem Servlet neben dem Request-Objekt ein weiteres Objekt übergeben: das Response Objekt. Dieses Objekt hat im Wesentlichen zwei Aufgaben. Zum einen kann der Entwickler angeben, ob HTML, XML oder WML vom Servlet erzeugt werden soll. Es ist also auch möglich, statt WebBrowser WAP-fähige Handys zu bedienen. Zum anderen kann die Ergebnisseite durch simple Print-Befehle Zeile für Zeile erzeugt werden. Die Servlet-Engine sorgt nun wiederum dafür, dass die dynamisch erzeugte Seite an den Client, also den Browser oder www.lanline.de fokusE-COMMERCE das Handy, weitergeleitet wird. Etwas komplizierter ist es, die Funktionalität eines Einkaufswagens zu implementieren. Denn hier müssen die benutzerspezifischen Daten in einer Session, also über mehrere Seitenaufrufe hinweg, gesammelt werden und jederzeit zur Verfügung stehen. Dies ist nicht einfach, da sich ja zu einem gegebenen Zeitpunkt hunderte von Benutzern auf der Website tummeln können. Zum Glück nimmt die Servlet-Engine dem Entwickler dieses Problem ab. Greift der Benutzer zum ersten Mal auf die Web-Applikation zu, wird im Browser ein Cookie mit einer eindeutigen Identifikation gesetzt. Bei weiteren Anfragen kann der Benutzer somit erkannt werden. Jedem Benutzer ist weiterhin ein Speicherplatz – der so genannte Session Kontext – zugeordnet. Das Servlet kann den Bereich des momentan aktiven Benutzers von der Servlet-Engine anfordern und beispielsweise die Information eines Buchs dort ablegen. Empfängt die Servlet-Engine innerhalb von 15 Minuten keine weiteren Anfragen, wird die Session automatisch gelöscht. Java Server Pages sind eine neue, auf Servlets aufbauende Technologie von Sun [2]. Prinzipiell funktionieren Java Server Pages genau wie Servlets. Der entscheidende Unterschied besteht jedoch im Verhältnis von Java und HTML beziehungsweise XML. Servlets sind normale Java-Klassen, die den dynamischen Web-Inhalt mit Print-Anweisungen ausgeben. Java Server Pages hingegen sehen fast wie ein gewöhnliches HTML-Dokument aus. Dynamische Seitenkomponenten, wie zum www.lanline.de Beispiel das Ergebnis einer Suchanfrage, fehlen jedoch. Stattdessen findet man, abgegrenzt durch die Tags <% und %> Java-Programmzeilen, die wie im Servlet die dynamischen Seitenteile generieren. Wer mit den Web-Technologien vertraut ist, erkennt, dass sich ein Servlet zu JSP in etwa so wie ISAPI zu ASP verhält. Ruft ein Benutzer eine JSPDatei in seinem Web-Browser auf, wird sie automatisch auf dem Server in ein Servlet übersetzt. Dies geschieht, indem alle Zeichen, die sich nicht zwischen <% und %> befinden, in Print-Methodenaufrufe gepackt werden. Dieses aus der JSP-Datei generierte Servlet wird automatisch compiliert, im Arbeitsverzeichnis des Web-Servers gespeichert und dann wie jedes andere Servlet ausgeführt. Dies bedeutet natürlich auch, dass mit JSP Variablen definiert und andere komplexe Java-Klassen aufgerufen werden können. Der Vorteil von JSP ist, dass die statischen Seitenteile mit jedem HTML-Editor wie zum Beispiel Frontpage oder Composer bearbeitet werden können. Mit Servlets ist hierzu immer eine Änderung im JavaProgramm und ein erneutes Kompilieren erforderlich. Andererseits sind JSP-Programme oft recht unübersichtlich. Es bleibt letztendlich dem persönlichen Geschmack überlassen, ob Servlets oder JSP verwendet werden. Als Daumenregel gilt hierbei, komplexe Applikationslogik mit Servlets zu implementieren und JSP für Standardaufgaben wie Log-in oder Suche zu verwenden. Ein großes Plus für die Akzeptanz von Servlets und JSP ist die Tatsache, dass der Apa- L AN line 12/2000 241 fokusE-COMMERCE che-Web-Server, der inzwischen einen Marktanteil von über 60 Prozent besitzt [3], diese Technologien unterstützt. Die Jserv-Servlet-Engine erweitert den Apache-Server um die Unterstützung der Version 2.0 der Servlet-API [4]. Wer auf JSP zurückgreifen will, sollte hingegen Tomcat verwenden [5]. Diese Servlet-Engine unterstützt Version 2.2 der Servlet-API sowie Version 1.1 von JSP. Wie bei Perl oder PHP werden zwar auch Servlets interpretiert. Trotzdem kann sich die Performance sehen lassen, da für eine Anfrage kein eigener Prozess, sondern nur ein Thread in der Java-VM gestartet wird. Es gibt wohl kaum eine Applikation im Internet, die hinter den Kulissen ohne eine Datenbank auskommt. Online-Buchgeschäfte, die Fahrplanauskunft der Bahn oder Web-Seiten mit den aktuellen Aktienkursen sind Beispiele für datenbankgestützte Web-Anwendungen. Servlets, die Internet-Seiten dynamisch basierend auf Informationen aus einer Datenbank generieren, verschaffen dem Kunden einen direkten Draht zum zentralen Informationssystem. Auch für den Betreiber der Web-Seite ist diese Technik eine enorme Erleichterung. Das sonst notwendige häufige Aktualisieren statischer Seiten mit den neuen Informationen entfällt, da die Daten ohne Redundanzen nur noch in der Datenbank gespeichert sind. Moderne Datenbank-Server erlauben effizientes Speichern und Lesen der Daten, bieten sicheren Mehrbenutzerbetrieb, sichern die Konsistenz der Informationen und gewährleisten die Sicherheit der Daten durch ausgeklü- 242 L AN line 12/2000 gelte Logging- und BackupVerfahren. Die Java-DatabaseConnectivity-Schnittstelle (JDBC) erlaubt es einem beliebigen Java-Programm – also auch Servlets – SQL-Anfragen an beliebige Datenbanken zu schicken. In E-Commerce-Anwendungen finden sich Informationen über Kunden, Pro- mit diesem Attribut. Bei dieser Flut an Marketinginformation ist es nicht einfach einzuordnen, was XML eigentlich tut und wie es sich zu anderen Technologien verhält. Dabei ist XML im Grunde eine sehr einfache Sache. Denn die eXtended Markup Language erlaubt es, ein Dokument in Tei- Bild 3. Eine HTTP-Anfrage erzeugt dynamisch ein XML-Dokument, in dem die nackten Daten enthalten sind. Diese können von Programmen wie einem Preisvergleich-Agenten verarbeitet werden. Mit Hilfe von verschiedenen Stylesheets, die das Layout festlegen, können die Daten dann auch auf verschiedenen Geräten angezeigt werden. dukte und Bestellungen. Zwischen den Daten und benutzerfreundlichen Formularen befinden sich dann Servlets, die Produktlisten aus der Datenbank als HTML-Tabellen formatieren oder die Daten des HTMLFormulars für Neukunden in der Datenbank ablegen. “XML-Unterstützung” ist heute zu einem wichtigen Verkaufsfaktor geworden. Datenbanken, Middleware, Browser und Web-Design-Werkzeuge schmücken sich inzwischen le zu zerlegen und diesen Namen zu geben. Bild 3 zeigt ein XML-Dokument, das ein zum Verkauf angebotenes Buch beschreibt. Die Tags erinnern stark an HTML, jedoch können die Namen der Tags frei gewählt werden. Es ergibt sich eine hierarchische Struktur, in der klar festgelegt ist, welche Zeichen des Dokuments die ISBN darstellen und welche zum Buchtitel gehören. XMLDokumente können wie in diesem Fall von einer Web-Appli- kation dynamisch generiert oder mit einem beliebigen Editor erstellt werden. XML ist eine sehr grundlegende Technologie, die zwar auf das Internet zugeschnitten ist, jedoch für alle möglichen Anwendungen geeignet ist. So werden inzwischen viele Konfigurationsdateien als XML Datei abgelegt. Anhand eines virtuellen Buchgeschäfts soll nun gezeigt werden, wie diese einfache Idee von Nutzen sein kann: Sucht man beispielsweise auf der Web-Seite von Amazon. com nach einem Buch, bekommt man eine HTML-Seite mit dem Buchtitel, dem Preis, den Autoren und weiteren Informationen geliefert. Im Browser sieht diese Seite sehr schön und übersichtlich aus. Lässt man sich jedoch den Quelltext anzeigen, wird man mit einem Wust von HTMLTags konfrontiert. Will man nun aber die relevanten Informationen von einem Programm auslesen lassen, um beispielsweise automatisch die Angebote verschiedener Anbieter zu vergleichen, ist dies nur mit enormem Aufwand möglich. Auch wenn Amazons Website WAP-fähig gemacht werden sollte, wäre eine völlige Neuentwicklung nötig. Genau an dieser Stelle setzt XML an: Das Buchangebot wird in zwei Teile geteilt, und die eigentlichen Daten werden in XML codiert. Diese klare Struktur enthält keinerlei Layoutinformationen und ist somit für Programme wie einen PreisvergleichAgenten wesentlich leichter zu verarbeiten. Das Layout wird hierbei in einer separaten eXtensible Stylesheet Language (XSL) Datei gespeichert. Für jedes Darstellungsmedium gibt www.lanline.de fokusE-COMMERCE ein eigenes Stylesheet an, wie das jeweilige Angebot formatiert werden soll. Um eine WAP-/WML Unterstützung zu realisieren, muss also lediglich ein für die kleinen Displays angepasstes Stylesheet neu geschrieben werden. Die gesamte Applikationslogik, die das XML-Dokument aus der Datenbank dynamisch generiert, kann weiter verwendet werden. Natürlich stellt sich die Frage, ob die XML-Elementnamen “buch”, “isbn”, “titel” und “waehrung” willkürlich gewählt wurden oder nicht. Denn um das enorme Potential von XML voll auszuschöpfen, ist es natürlich sinnvoll, dass sich die Teilnehmer eines Systems auf ein Vokabular und eine Dokumentstruktur einigen. Diese www.lanline.de Referenzen: [1] Servlet Specifikation: http://java.sun.com/products/servlet/ [2] JSP Specifikation: http://java.sun.com/products/jsp/ [3] The Netcraft Web Server Survey: http://www.netcraft.com/ survey/ [4] The Apache JServ Project: http://java.apache.org/jserv/ [5] Jakarta Tomcat: http://jakarta.apache.org/tomcat/ Informationen können in einer so genannten Document Type Definition (DTD) festgelegt werden. Man kann zum Beispiel festlegen, dass Buchangebote die genannten Elemente enthalten müssen, optional aber auch noch die Namen der Autoren enthalten können. Die DTD ist somit eine wichtige Basis für den Austausch von Dokumenten und garantiert eine problemlose Weiterverarbeitung. Momentan wird in fast allen Brachen versucht, Standards zum Beispiel für Immobilien oder Patente festzulegen. Für Java und etliche andere Programmiersprachen sind inzwischen eine Fülle von XMLWerkzeugen erhältlich. Das Kernstück ist hierbei immer der XML-Parser, der ein XML-Dokument in eine hierarchische Datenstruktur zerlegt und diese dem Anwendungsprogramm übergibt. Java-Servlets und XML sind Technologien, die eine schnelle, skalierbare und flexible Verwirklichung einer E-Commerce Lösung ermöglichen. Servlets und JDBC lassen den Produktkatalog schnell und problemlos im Web erscheinen. Java Server Pages präsentieren die Ergebnisse dem Web-Browser. XML bietet interessante Perspektiven für die Zukunft. Vielleicht ermöglichen es bald branchenspezifische DTDs kleinen Firmen, ihre Produkte in Sekundenschnelle weltweit anzubieten. (Andreas Eberhart, Stefan Fischer/gh) Die Autoren arbeiten an der International University School of Information Technology in Bruchsal. L AN line 12/2000 243 fokusE-COMMERCE OBJEKT-BROKER FÜR E-COMMERCE Komponenten im Wettstreit Moderne Anwendungen wie Online-Shops sind modular aus Komponenten aufgebaut, die sinnvoll miteinander kommunizieren müssen. Dafür sind so genannte Komponenten-Broker oder Software-Busse erforderlich, deren wesentliche Vertreter DCOM und Corba sind. Dieser Beitrag erläutert die Funktionsweise der beiden Modelle und stellt ihre Möglichkeiten anhand von zwei Beispielen vor. DCOM (Distributed Component Object Model, vormals OLE – Object Linking and Embedding), ist ein Microsoft-eigener SoftwareBus zur Verknüpfung von Anwendungen und Software-Komponenten im lokalen Netzwerk. Dieses Konzept dehnte Microsoft mit der Einführung von ActiveX auf das Internet aus. DCOM ist ein durchgängiges Komponentenmodell für die Windows-Plattform. Unab- 244 L AN line 12/2000 hängig davon, ob Serveroder Client-Anwendungen realisiert werden sollen, stellt COM ein mächtiges und einheitliches Programmier- und Komponentenmodell zur Verfügung, das von jeder Programmiersprache aus verwendet werden kann. Die Wiederverwendung von Komponenten und Quellcode wird dadurch sehr einfach. Denn schon das Betriebssystem selbst verfügt über sehr viele Dienste, wel- che die Entwicklung von Anwendungen erleichtern. Dabei zeigen sich schnell die Vorteile eines durchgängigen Komponentenmodells. So lassen sich beispielsweise XML-Daten sehr bequem über das XML-DOM-Document-Objekt bearbeiten. Diese Komponente lässt sich sowohl aus HTML oder ASP (Active Server Pages) mit einer Skriptsprache ansprechen, als auch aus einer COM-Komponente, die in einer Hochsprache wie Visual Basic oder Visual C++ geschrieben wurde. Zusätzlich zu den COMKomponenten des Betriebssystems lassen sich unter der Windows-Plattform auch Komponenten aus Anwendungsprogrammen nutzen – beispielsweise dem neuen Office 2000, das aus über 600 COM-Komponenten besteht. Im betriebswirtschaftlichen Bereich stehen R/3Komponenten über den SAP-DCOM-ComponentConnector zur Verfügung. Somit können Entwickler zusätzlich zu den bisher eher technischen Komponenten nun erstmals auch auf extrem leistungsfähige betriebswirtschaftliche COM-Komponenten zurückgreifen. Der DCOM-Component-Connector erstellt COM-Wrapper für SAP-BAPIs (Business Application Interfaces). Diese COM-Komponenten kapseln die Funktionalität der BAPIs und stellen diese über das COM-Interface anderen Anwendungen zur Verfügung. Diese COM-Komponenten werden im Microsoft-Transaction-Server (MTS) verwaltet. Somit steht die volle Funktionalität allen Programmiersprachen und Anwendungen auf der Windows-Plattform zur Verfügung. Selbst das WindowsRechtesystem kann verwendet werden, um die Zugriffsrechte auf diese Komponenten zu verwalten. Funktionale Erweiterungen und eine Integration in Windows-Anwendungen erfolgen dann über die COM-Schnittstellen. NICHT NUR FÜR WINDOWS-PLATTFORMEN Mi- crosoft will sich mit DCOM allerdings nicht nur auf Windows beschränken, sondern www.lanline.de fokusE-COMMERCE auch die unternehmensweite Informationsverarbeitung erobern. Bereits 1995 ging die Darmstädter Software AG mit Microsoft eine Zusammenarbeit ein, um DCOM auf Unix und Großrechner-Betriebssysteme wie MVS zu portieren. Im September 1997 wurde die erste kommerzielle DCOM-Version für das Unix-Betriebssystem Solaris freigegeben, im Oktober 1997 folgte Digital Unix, DCOM auf MVS wurde Anfang 1998 implementiert. Die Portierung von DCOM auf Unix oder MVS birgt in der tatsächlichen Implementierung nach Einschätzung von unabhängigen SoftwareSpezialisten einige Tücken, denn ein großer Teil des NTBetriebssystems wurde mit portiert, um diese Komponenten zum Laufen zu bringen. Die Ankopplung der Active-X-Technologie an das darunter liegende Betriebssystem und die Programmierschnittstelle scheint hierbei sehr eng zu sein. Ob dieser Weg richtig ist, quasi komplette virtuelle NT-Maschinen auf die verschiedenen Plattformen mit zu portieren, ist allerdings zu hinterfragen. NEUE FEATURES MIT COM+ COM+ erweitert das Komponentenmodell COM/ DCOM in Windows 2000 um zahlreiche neue Dienste, die in Richtung verteilte Systeme und Internet zielen. Hier ist zunächst der so genannte Kontext zu nennen. Darunter versteht Microsoft eine Menge von zur Laufzeit benötigten und verwendeten www.lanline.de Eigenschaften für ein oder mehrere Objekte. Beim Erzeugen eines Objekts wird automatisch ein zugehöriges Kontextobjekt instantiiert. Das Kontextobjekt schiebt sich bildlich gesprochen während eines Methodenauf- ler Daten zu gewährleisten. Dieser Transaktionsmonitor entspricht dem früheren MTS und beherrscht das 2-Commit-Protokoll für verteilte Transaktionen. Eine weitere wichtige Neuerung ist die asynchrone Kommunikation Der Kern von DCOM ist das Component-Object-Model, dessen Mechanismen Objekte verwalten, während der Service-Control-Manager zwischen Server- und Client-Objekten vermittelt Quelle: Microsoft rufs zwischen den Client und dem eigentlichen COM+Objekt. Diese Vorgehensweise bezeichnet man auch als Interception, die sich in jedem Winkel der COM+-Programmierung unter Windows 2000 wiederfindet. Informationen über die Eigenschaften einer Komponente findet COM+ im COM+-Katalog, einer auf schnelle Leseoperationen optimierten Datenbank für KomponentenMetadaten. Objekt-Pooling hält hierbei mehrere Objektinstanzen im Speicher, damit sie ohne zeitraubende Instantiierung sofort für Anwendungen bereit stehen. Die Anzahl der zu poolenden Objekte lässt sich über die Management-Console einstellen. COM+ ist nun auch mit einem Transaktionsmonitor ausgestattet, um einen konsistenten Zustand al- im Sinne von MessageQueuing, welche dem Entwickler die Details asynchronen Messagings abnimmt. Und mit Publish/Subscribe wurde ein neues Konzept zur Verwaltung von Ereignissen implementiert. Ist DCOM quasi mit Windows NT gleichzusetzen, gilt CorCORBA FÜR UNIX ba (Common Object Request Broker Architecture) als Gegenpol bei Unix. Handelt es sich bei DCOM um ein proprietäres Protokoll, so ist Corba das Ergebnis einer langjährigen Standardisierung durch die OMG (Object Management Group), einem Zusammenschluss von rund 700 Unternehmen. Seit 1989 spezifiziert die OMG einen offenen Software-Bus für die Kommunikation von Komponenten beziehungsweise Objekten in heterogenen Umgebungen – Corba implementiert einen solchen Software-Bus oder Object-Request-Broker (ORB). Client-Anwendungen können darüber mit entfernten Komponenten kommunizieren und Operationen sowohl statisch als auch dynamisch aufrufen. Im Jahr 1992 verabschiedete die OMG die CorbaSpezifikation 1.0 und 1994 die Version 2.0, welche bereits ein Protokoll für die Interoperabilität von ORBs enthielt, das Internet InterORB-Protocol (IIOP). IIOP läuft auf dem Internet-Protokoll TCP/IP und erfordert keine spezielle Konfigura- L AN line 12/2000 245 fokusECOMMERCE tion. Corba-2.0-kompatible Komponenten sind aufgrund des IIOP interoperabel. Zentrale Aufgabe von Corba ist die Übermittlung von Methodenaufrufen im Netz. Das Rückgrat des CorbaORB bietet modulare Dienste auf Systemebene, welche den ORB ergänzen und quasi Bausteine für Anwendungen darstellen. Solche gemeinsamen Objektservices beinhalten unter anderem einen “Naming Service”, der es Objekten ermöglicht, sich durch ihre Namen zu finden. Mit dem “Event Service” können Objekte einen Ereigniskanal abonnieren und spezifische Ereignisse gemeldet bekommen. Der “Transaction Service” definiert transaktionales Verhalten und koordiniert 2Phase-Commits zwischen Objekten. Der “Security Service” schließlich sorgt für die Authentifizierung und Autorisierung von Nutzern sowie Verschlüsselung von sensitiven Daten. 246 L AN line 12/2000 Corba-kompatible Komponenten verfügen über eine definierte Schnittstelle, über die die gesamte Kommunikation abläuft. Änderungen in der Implementierung einer Komponente berühren andere nicht, solange die Schnittstelle nicht verändert wird. vestitionen in vorhandene Anwendungen. JAVA Unter Java ist die “Remote Method Invocation (RMI)” der standardmäßige Ansatz zur Kommunikation verteilter Objekte. RMI ist seit dem Java-Development- Der Kern der Corba-Spezifikation ist der Object-Request-Broker (ORB). Die Interface Definition Language beschreibt die Schnittstellen der Objekte. Quelle:OMG Eine Legacy-Anwendung beispielsweise kann in einen C++- oder Java-Wrapper gekapselt werden, der dann die Schnittstelle zum LegacyCode definiert und die Anwendung Corba-kompatibel macht. Corba-Komponenten sind somit Plug-and-Play-fähig und schützen auch die In- Kit (JDK) Version 1.1 integraler Teil des Standards und wurde ab der Version 1.2 erheblich erweitert. Auch die Browser von Microsoft und Netscape verstehen RMI. Server-Objekte laufen in einer eigenen virtuellen JavaMaschine, die Verbindung zwischen Client und Server erfolgt über die RM-Registry, einem einfachen Namensdienst. RMI läuft auch über Corba/IIOP, denn Corba ist Bestandteil der Java-2Enterprise-Edition (J2EE) von Sun. Die Vorteile dieser Kombination sind laut Ralph Galantine, Senior Product Manager bei Sun “die Interoperabilität durch Corba mit vielen unterstützten Plattformen und Programmiersprachen sowie die große Anzahl von implementierten Diensten, die zu einer neuen Klasse von Portable-Remote-Objects führen,” also zu portablen entfernten Objekten. ERWEITERUNGEN IN CORBA 3.0 In der kommenden Corba-Version 3.0 wird das Komponentenmodell um ein “Container Environment”, die Integration mit “Enterprise Java Beans (EJBs)” sowie einem Format für die Distribution erweitert. EJBs repräsentieren das Enterprise Framework des Java-Kom- www.lanline.de fokusE-COMMERCE ponentenmodells (Java Beans) für Server-seitige Entwicklungen auf Basis einer Multi-Tier- und verteilten Objektarchitektur. Das Modell ist sowohl für kleine als auch umfangreiche Geschäftsanwendungen mit hohen Transaktionsvolumina geeignet und unterstützt von Haus aus Web-basierte Anwendungen. EJBs sind schon heute der Industriestandard für die Entwicklung Serverseitigen Java-Anwendungen, und die Gartner Group schätzt, dass im Jahr 2001 über 35 Prozent aller neuen Anwendungen mit Hilfe von EJBs gebaut werden. Mit dem Distributionsformat soll die Basis für einen Handel mit Komponenten gelegt werden. Der CorbaContainer erlaubt Persistenz, Transaktionen und Sicherheit. Diese Funktionen sind vorgefertigt und bieten einen höheren Abstraktionsgrad als die Corba-Dienste. Enterprise-Java-Beans können als Corba-Komponenten eingesetzt und in einem Container installiert werden. CorbaKomponenten allerdings können, gegenüber EJBs, in unterschiedlichen Sprachen codiert sein und unterstützen auch unterschiedliche Schnittstellen. Zudem erlaubt Corba 3.0 asynchrones Messaging. Nach mehr als zehn Jahren kooperativer Zusammenarbeit in der OMG ist die Corba-Infrastruktur damit vollständig. Und zwischen den zwei Welten COM von Microsoft und Corba wurde von der OMG ein “Interworking Architecture Model” entworfen, das einen Übergang ermöglicht. www.lanline.de COM UND CORBA FÜR ECOMMERCE Komponenten- basierte Shop-Lösungen sind heute der Stand der Technik, und beide vorgestellten Komponenten-Broker sind hier etabliert: So ist der Commerce-Server von Microsoft in der Version 3.0 ein Internet-Server, mit dem sich leistungsfähige und kostengünstige Commerce-Lö- rückgängig gemacht werden können. Komponenten sind für drei allgemeine Bereiche verfügbar: Dienstprogramme, Bestellungs-Pipeline und Commerce-InterchangePipeline. Dienstprogramm-Komponenten sind für die Interaktionen zwischen den ASPDateien und den Daten in der Site-Datenbank zuständig. Der Microsoft Site Server Commerce Edition (SSCE) in einer typischen Konfiguration mit dem SQL-Server Quelle: Microsoft sungen im B2B- und im B2C-Umfeld erstellen lassen. Dafür gibt es eine Sammlung von COM-Objekten, Tools, Assistenten und Beispielseiten. Zudem kann die Plattform mit Software von rund 50 unabhängigen Herstellern erweitert werden, beispielsweise durch spezielle Abrechnungs-, Zahlungs- und Buchhaltungssysteme. Diese Komponenten erleichtern und automatisieren viele Aufgaben, die sonst manuell ausgeführt werden müssten, um eine arbeitsfähige kommerzielle Site über Active-Server-Pages (ASP) zu erstellen. Alle Commerce-Server-Komponenten unterstützen den MicrosoftTransaction-Server, sodass auch fehlgeschlagene Operationen, die aus mehreren Schritten bestehen, wieder Sie führen die Umwandlung und Überprüfung von Datentypen durch, generieren Fehlermeldungen, erleichtern die administrativen Aufgaben und speichern Informationen aus Auftragsformularen der aktuellen Sitzung. Die Komponenten der Bestellungs-Pipeline verwalten die mit einer Bestellung verknüpften Daten in den jeweiligen Phasen der Auftragsbearbeitung. Die CommerceInterchange-Pipeline (CIP) ermöglicht den Austausch von Geschäftsdatenobjekten (Einkaufsbestellungen, Quittungen, Versandanzeigen) zwischen Handelspartnern. Die Übertragungs-Pipeline übernimmt die Zuordnung, die digitale Signierung, die Verschlüsselung, den Transport des Objekts und überwacht die Übertragung. Die Empfangs-Pipeline führt L AN line 12/2000 247 fokusE-COMMERCE den umgekehrten Prozess durch, denn sie empfängt, entschlüsselt und überprüft die digitale Signatur, die Zuordnung und die Überwachungen. Dieser Prozess ist transportunabhängig und unterstützt HTTP, DCOM und S/MIME über SMTP. Die neue E-CommerceLösung Enfinity von Intershop hingegen basiert auf modernsten Software-Konzepten wie dem Java-Enterprise-Model, Corba, LDAP und XML. Die Preise für diese hochskalierbare Highend-Lösung liegen je nach Ausstattung zwischen 150.000 und mehr als 300.000 Dollar pro Lizenz. Namhafte Solution Provider, darunter Pricewaterhouse Coopers, Debis IT Services, KPMG, Unisys, Keane, Infopark, JBA, Nvision, Pixelpark, Intouch, und Nuforia setzen Enfinity zur Entwicklung kundenspezifischer ECommerce-Lösungen ein. Enfinity verfügt über eine Komponenten-basierte Architektur, die projektbezogen zusammengestellt werden kann. Die einzelnen Komponenten werden durch einen neuartigen so genannten Pipeline-Manager zu einem kompletten E-CommerceGeschäftsprozess zusammengesetzt. Dadurch verringert sich nicht nur die Implementierungsdauer für komplexe E-Commerce-Anwendungen, sondern diese Architektur ermöglicht ebenfalls stark erweiterte Verkaufsfunktionalitäten, spontane Marketingaktionen, transparente Transaktionen zwischen allen E-Commercetreibenden Firmen sowie WAP-Unterstützung. 248 L AN line 12/2000 Enfinity wurde von Grund auf als skalierbare MultiPlattform entwickelt. Jede Komponente der Architektur ist duplizierbar, um die Redundanz und erforderliche Skalierbarkeit zu erzielen. Eingebaute Sicherungsme- Diensten bei Einkäufern, anderen Verkäufern und Computern im vernetzten Markt. Dieser Server verwaltet Produktdaten und Bilder und die Darstellung von Produktkategorien und -hierarchien am Bildschirm. Der Transactivi- Komponentenbasierte Architektur der E-Commerce-Lösung Enfinity Quelle: Intershop chanismen sorgen für größtmögliche Daten- und Transaktionssicherheit. Aufbauend auf einer intuitiven grafischen Benutzerführung, wird Enfinity über das Management-Center bedient und verwaltet. Mit dem internen Visual-Pipeline-Manager lassen sich Pipelines einsehen, modifizieren und bei Bedarf neu erstellen. Alternativ kann man auch den gesamten Workflow der E-CommerceApplikation ändern. Die nächste Ebene besteht aus dem Transactivity-Server sowie dem Katalog-Server, dem Kernstück von Enfinity. Der Katalog-Server erlaubt die rasche und komfortable Erstellung von elektronischen Katalogen und die Auslagerung von ty-Server hingegen verwaltet Transaktionsdienste für eine Vielzahl verschiedener Geschäftsprozesse, für die es wiederum eine Reihe passender Komponenten gibt. Die Transaction-Engine steuert ihrerseits eine Vielzahl von Kundentransaktionen, die im Laufe eines Geschäftsverhältnisses anfallen. Die kontrollierte Abwicklung der Geschäftslogik erfolgt durch sichere Pipelets, welche die Geschäftsprozesse steuern. Dazu gehören der Warenkorb, die Preiskalkulation, Kundenanmeldung, Kontoverlauf, Kundenpflege, Verkaufspromotionen, Berechnung der Versandkosten, Rechnungslegung- und verwaltung, Versandabwicklung sowie statistische Auswertungen. Der Intelligent-Merchandiser schließlich steuert viele eingebaute Features von Enfinity, die es ermöglichen, die Vorteile von intelligentem Merchandising zu nutzen. Dazu gehören Kundenprofile, Quervermarktung, Produktvergleiche, Einkaufslisten, Verkaufsaktionen, intelligente Warenkörbe und detaillierte Reports. Eines der wesentlichen Merkmale von Enfinity ist der modulare Ausbau durch Software-Komponenten (Cartridges). Intershop bietet über 50 von unabhängigen Software-Herstellern entwickelte Applikationen an, die von der Inhaltsverwaltung über Personalisierung und elektronischer Bezahlung bis hin zur Anbindung von Kundenverwaltungssystemen reichen. Die Kommunikation zwischen den Prozessen in Enfinity läuft im Wesentlichen über HTTP und dem Internet-Inter-ORB-Protocol IIOP von Corba. Im Gegensatz zu HTTP unterstützt IIOP persistente Verbindungen und den Austausch von komplexen Objekten. IIOP dient vorwiegend für die Kommunikation zwischen Back-Office-Services und dem Management-Center. Der Control-Service kommuniziert auch per IIOP mit dem Back-Office, mit den Storefront-Services und dem Management-Center. Sollte wegen einer Firewall eine IIOP-Kommunikation nicht sinnvoll sein, verwendet Enfinity HTTP-Tunnelling. In diesem Falle werden CorbaDaten in HTTP-Requests verpackt. (Achim Scharf/gh) www.lanline.de Informationen schnell per Inserenten Inserent 1st Data 3M Deutschland Aagon Acterna ADN Akademie f. Netzwerksicherheit Alcatel IND Allied Telesyn Andante APC APW ArtStor AT+C AT+C AVM B&T-Tele-Dat BATM BinTec Brocade BTR Telecom CA Computer Associates Canon CCM Consult CE Infosys Celo Communications CITRIX CMT CompuShack ComputerLinks Comuter Competence Concert Connect Consultix Content Technologies CyberGuard Dafür Dakota Datakom Dätwyler dc congresse D-Link Drahtex DraKa Norsk Kabel DSM DV-Markt E. Lehmann Ecrix edcom EEH Eicon Technology Diehl Elomech Seite 243 65 217 25 260 260 23 37 161 89 67 155 64 68 157 121 107 123 149 225 21 163 247 204 203 260 109 49 259 259 45 7 235 113 207 70 40 91 57 239 9 39 111 141 250 120 187 260 73 81 41 Kennz. 129 039 118 015 014 021 089 055 040 086 038 041 087 068 062 069 083 122 013 090 133 111 110 063 028 026 006 127 065 113 043 023 056 033 115 007 022 064 078 134 067 105 047 051 024 Inserent Enterasys Ericsson Euromicron Executive Software Fluke FOP Foundry Networks Gentner GeNUA GoC HIROSE ELECTRIC HIROSE ELECTRIC Hirschmann Huber + Suhner IBM IBM Inrange Intrusion.com Intrusion.com IP-School IT Protect Job-Today Junge Kerpenwerk Konradin Verlag Krone LAN-Technik LANworks LEONI Martin Networks Materna Materna mediapps Microtest Minicom MMS Modular Computer Multimatic mvk netzwerktechnik NBase Xyplex NBase Xyplex NETASQ NetSupport NK Networks NK Networks Novell Novell NPI Online 2000 Online Computer Orgavision Overland Data Seite 33 55 244 47 15 69 119 240 224 173 103 169 229 260 28/29 51 153 137 139 260 142 250 70 11 249 4/5 99 259 270 131 87 165 269 127 205 201 159 228 245 170 172 197 223 85 213 175 177 35 233 147 77 17 Kennz. 019 032 130 027 010 042 066 061 121 097 060 093 126 017 029 085 076 077 079 135 044 008 136 005 058 003 074 054 091 002 072 112 109 088 125 131 094 096 107 120 053 116 098 099 020 136 082 049 011 Inserent Seite Pan Dacom 2 Panduit 62 Panduit 63 Pentair 125 Psion Dacom 93 Pyramid 167 QSC 135 Quante 79 Quantum 181 R2R Research to Rise 227 Radware 19 Raritan 199 realTech 129 Red Shepherd Translations143 Reichle & De-Massari 13 Right Vision 101 S&N 259 Schäfer Gehäusesysteme 183 Schindler 219 Seicom 3 Seicom 145 Sitara Networks 27 Swyx 71 Symantec 42/43 Tekelec Airtronic 189 Telegärtner 260 Teles 215 TGS Telonic 61 The Bristol Group 209 TIM 52/53 TIM 178/179 topmedia 171 Toshiba 58/59 Trefz & Partner 70 Trefz & Partner 259 Trend Micro 151 Tyco 241 Veeco Instruments 83 Veritas 185 Webasto 126 Winternals 31 X.net 2000 226 Xnet 75 Beilagen, Beihefter und Postkarten AWi Marcus Evans RIT Technologies Seicom Communications Kennz. 001 036 037 070 057 092 075 050 102 124 012 108 073 080 009 059 103 119 004 081 016 046 025 106 117 035 114 030 100 095 034 045 084 128 052 104 071 018 123 048 Info-Fax oder Internet ▲ ● Tragen Sie die entsprechende Kennziffer unter www.lanline.de/info an der vorgesehenen Stelle ein und Sie gelangen direkt und ohne Umwege zu Ihren gewünschten Zusatzinformationen. ●Info-Fax # 023 ▲ ●Info-Fax ▲ Der moderne Weg zu detaillierten Informationsmaterial zu der in dieser Ausgabe veröffentlichten Anzeigen. www.lanline.de/info ▲ ● Selbstverständlich haben Sie nach wie vor die Möglichkeit, weitere Anzeigen-Produkt-Infos mit dem untenstehenden Faxformular abzurufen. Einfach ausfüllen und an die Fax-Nummer 08621/97 99 60 faxen. Zum schnellen Überblick haben wir alle inserierenden Firmen auf der gegenüberliegenden Seite aufgelistet. # 023 www.lanline.de/info An AWi-Verlag LANline-Leserservice Edith Winklmaier Herzog-Otto-Str. 42 83308 Trostberg ine l N 0 L A /200 12 Meine Anschrift lautet: Ich möchte Informationsmaterial zu Anzeigen mit folgenden Kennziffern (siehe nebenstehende Übersicht): Firma Abteilung 1. 2. 3. 4. 5. 6. Vorname/Name Straße/Nummer PLZ/Ort 7. 8. 9. 10. 11. 12. Telefon Fax Meine Funktion: (bitte ankreuzen) ❑ Spezialist ❑ Gruppen-/Abteilungsleiter ❑ Einkauf ❑ Unternehmensleitung ❑ Mein Unternehmen beschäftigt: ❑ 1 bis 19 Mitarbeiter ❑ 100 bis 249 Mitarbeiter ❑ über 1000 Mitarbeiter ❑ 20 bis 49 Mitarbeiter ❑ 250 bis 499 Mitarbeiter Mein Unternehmen gehört zu folgender Branche: ❑ Elektroindustrie ❑ Maschinenbau ❑ Fahrzeughersteller und -zulieferer ❑ Chemisch pharmazeutische Industrie ❑ Transport- und Logistikbranche ❑ Geldinstitute/Bausparkassen ❑ Versicherungswesen ❑ Reise- und Touristikbranche ❑ Handel und Dienstleistungen ❑ Öffentliche Verwaltung ❑ Hochschulen und Forschungsinstitute ❑ Nahrungs- und Genußmittel ❑ 50 bis 99 Mitarbeiter ❑ 500 bis 999 Mitarbeiter Ich interessiere mich für folgende Computer- und Kommunikationssysteme: Betriebssysteme: Hardware: ❑ MS-DOS ❑ VMS/OpenVMS ❑ Windows ❑ OS/2 ❑ Windows NT ❑ Ultrix ❑ UNIX ❑ OSF/1 ❑ System 7 ❑ Windows 95 ❑ IBM ❑ DEC ❑ HP ❑ Sun ❑ Siemens ❑ Apple ❑ RISC-Systeme ❑ andere: Kommunikationssysteme/ -lösungen: ❑ DECnet ❑ Novell-NetWare ❑ Banyan Vines ❑ LAN Manager/LAN Server ❑ PC-Host-Verbindung ❑ Pathworks ❑ ISDN/WANs ❑ Windows NT Advanced Server ❑ andere: Damit Hersteller und Anbieter von Produkten, für die ich mich interessiere, meine Kennziffernanfragen so gezielt wie möglich beantworten können, bin ich damit einverstanden, daß diese Daten elektronisch gespeichert und weitergegeben werden. Ort, Datum Unterschrift VORSCHAU 1/2001 ist ab dem 27.12.2000 am Kiosk erhältlich SCHWERPUNKT MOBILE COMPUTING: Domino- und ExchangeDaten auf PDAs SCHWERPUNKT WAN-ANSCHLUSS: Optische High-Speed-Netze netzPRODUKTE Vergleichstest Bandbibliotheken DM 14,- ÖS 110,- Sfr. 14,- Nr. 1, Januar 2001 Das Magazin für Netze, Daten- und Telekommunikation netzLÖSUNGEN www.lanline.de Mobile Computing Das Magazin für Netze, Daten- und Telekommunikation mit Marktübersicht PCMCIA-Kombikarten Serie Netzwerkdienstleister (III) focusE-COMMERCE WebswitchingTechnologien MARKTÜBERSICHTEN Mobile Computing: Domino- und Exchange-Daten auf PDAs PCMCIA-Kombikarten, WAN-Switches VORSCHAU auf kommende LANline-Schwerpunkte Ausgabe Erscheint Schwerpunktthemen am Sonder- 05.01. heft 2000 LANline Spezial: Administration 02/2001 12.02. 2001 LAN-Switches, Router, 21.12. Hubs, 2000 Massenspeicher 03/2001 12.03. 2001 Verkabelung, Server- u. Clusterlösungen Sonder- 22.03. heft 2001 WAN-Anschluss: Backbone-Technologie der Zukunft 268 L AN line 12/2000 Redaktionsschluss LANline Spezial: CeBIT 03.11. 2000 18.01. 2001 31.01. 2001 Wenn Sie zu einem oder mehreren dieser Themen einen Beitrag schreiben möchten, rufen Sie uns einfach an: 089/456 16-101 IMPRESSUM HERAUSGEBER: Eduard Heilmayr (he) REDAKTION: Rainer Huttenloher (Chefredakteur, (rhh)), Stefan Mutschler (Chefredakteur, (sm)), Marco Wagner (stv. Chefredakteur, (mw)), Doris Behrendt (db), Dr. Götz Güttich (gg), Georg von der Howen (gh), Kurt Pfeiler (pf) AUTOREN DIESER AUSGABE: Hermann Abels-Bruns, Frank Albertz, Dr. Beat Brunner, Kerstin Bücker, Frank Bunn, Dr. Rainer Doh, Andreas Eberhart, Stefan Fischer, Christoph Gossel, Gerold Hahn, Udo Kerst, Thomas Kohl, Alf Leue, Peter Meuser, Ralf Nemeyer, Andreas Priessnitz, Andreas Roeschies, Robert Runge, Achim Scharf, Dr.-Ing. Lothar Steinhäuser, Hermann Strass, Gunther Thiel, Paul Trowbridge, Ruth Watzke, Christian Zillich, Frank Zwirner REDAKTIONSASSISTENZ: Edit Klaas, Tel.: 089/45616-101 REDAKTIONSANSCHRIFT: Bretonischer Ring 13, 85630 Grasbrunn, Fax: 089/45616-200, http://www.lanline.de LAYOUT, GRAFIK UND PRODUKTION: Hans Fischer/Carmen Voss, Tel.: 089/45616-212, Edmund Krause (Leitung) ANZEIGENDISPOSITION: Carmen Voss, Tel.: 089/45616-212 Sandra Pablitschko, Tel.: 089/45616-108 TITELBILD: Wolfgang Traub ANZEIGENVERKAUF: Anne Kathrin Latsch, Tel.: 089/45616-102 E-Mail: la@lanline.awi.de Susanne Ney, Tel.: 0 89/45616-106 E-Mail: sn@lanline.awi.de Karin Ratte, Tel.: 089/45616-104 E-Mail: kr@lanline.awi.de ANZEIGENVERKAUFSLEITUNG GESAMT-AWI-VERLAG Cornelia Jacobi, Tel.: 089/71940003 oder 089/45616-117 E-Mail: cj@awigl.awi.de ANZEIGENPREISE: Es gilt die Preisliste Nr. 12 vom 1.1.2000 ANZEIGENASSISTENZ: Davorka Esegovic, Tel.: 089/45616-156 ANZEIGENVERWALTUNG: Gabriele Fischböck, Tel.: 089/45616-262, Fax: 089/45616-100 ERSCHEINUNGSWEISE: monatlich, 12 Ausgaben/Jahr zuzüglich 4 Themenhefte ABONNEMENT-BESTELL-SERVICE: Vertriebs-Service LANline, Edith Winklmaier, Herzog-Otto-Str. 42, 83308 Trostberg, Tel.: 08621/645841, Fax 08621/62786 Zahlungsmöglichkeit für Abonnenten: Bayerische Vereinsbank München BLZ 700 202 70, Konto-Nr. 32 248 594 Postgiro München BLZ 700 100 80, Konto-Nr. 537 040-801 VERTRIEB EINZELHANDEL: MZV, Moderner Zeitschriften Vertrieb, Breslauer Str. 5, 85386 Eching BEZUGSPREISE: Jahresabonnement Inland: 148,– DM Ausland: 174,– DM (Luftpost auf Anfrage) Vorzugspreise DM 110,- (Inland), DM 121,80 (Ausland) für Studenten, Schüler, Auszubildende und Wehrpflichtige – nur gegen Vorlage eines Nachweises. Sollte die Zeitschrift aus Gründen, die nicht vom Herausgeber zu vertreten sind, nicht geliefert werden können, besteht kein Anspruch auf Nachlieferung oder Erstattung vorausbezahlter Bezugsgelder. SONDERDRUCKDIENST: Alle in dieser Ausgabe erschienenen Beiträge sind in Form von Sonderdrucken erhältlich. Kontakt: Edmund Krause, Tel.: 089/45616-240, Alfred Neudert, Tel. 089/45616-146, Fax: 089/45616-100 DRUCK: Konradin Druck GmbH, Kohlhammerstr. 1-15, 70771 Leinfelden Echterdingen URHEBERRECHT: Alle in der LANline erscheinenden Beiträge sind urheberrechtlich geschützt. Alle Rechte, auch Übersetzungen, vorbehalten. Reproduktionen, gleich welcher Art, nur mit schriftlicher Genehmigung des Herausgebers. Aus der Veröffentlichung kann nicht geschlossen werden, dass die beschriebenen Lösungen oder verwendeten Bezeichnungen frei von gewerblichem Schutzrecht sind. © 2000 AWi LANline Verlagsgesellschaft mbH MANUSKRIPTEINSENDUNGEN: Manuskripte werden gerne von der Redaktion angenommen. Mit der Einsendung von Manuskripten gibt der Verfasser die Zustimmung zum Abdruck. Kürzungen der Artikel bleiben vorbehalten. Für unverlangt eingesandte Manuskripte kann keine Haftung übernommen werden. VERLAG: AWi LANline Verlagsgesellschaft mbH Ein Unternehmen der AWi Aktuelles Wissen Verlagsgesellschaft mbH, Bretonischer Ring 13, 85630 Grasbrunn Web: http://www.awi.de Geschäftsführer: Eduard Heilmayr, Cornelia Jacobi ISSN 0942-4172 i v w Mitglied der Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern e.V. (IVW). Bad Godesberg Mitglied der Leseranalyse Computerpresse 1999 www.lanline.de