storage-magazin.de - Einkaufsführer Storage 2011
Transcription
storage-magazin.de - Einkaufsführer Storage 2011
storage-magazin.de Eine Publikation von speicherguide.de 8 | 2011 Special Einkaufsführer Storage L SPEICHER-TRENDS Effizienz und Skalierbarkeit L TECHNIK Pimp my Storage storage-magazin.de L PRODUKTE Marktübersicht NAS-Server virtualisierungs-guide virtualisierungs-guide 36 Sei ten ECMguide.de geball Storag tes e-Wiss en ECMguide.de Einkaufsführer Storage +++ Große Marktübersichten +++ DISK-BACKUP & TAPE-LIBRARYS Profitieren Sie von der Leistung der neuen 6Gb/s Adaptec RAID-Controller Kostengünstige Hardware RAID (SATA/SAS)-Controller mit integriertem DRAM übertreffen Software-basierte HBAs und SATA-Controller Adaptec Serie 6E – ECHTES HardwareRAID für Entry-Level-Systeme Adaptec’s Serie 6E Unified Serial SATA/SAS RAID-Controller verfügen über robustes Hardware-RAID und den Adaptec RAID-Code, Management-Funktionen der Enterprise-Klasse und breite Betriebssystem-Unterstützung für RAID-Systeme der Einstiegsklasse. Die Controller der Serie 6E bieten dieselbe Leistung von 6 Gbit/s wie unsere Controller der Serie 6, sind aber optimiert auf Plattformen, bei denen sich Controller der Serie 6 aus Preisgründen oder wegen ihres Formfaktors bzw. ihrer Host-Konnektivität nicht eignen. ✓ ✓ ✓ ✓ HBA und Hardware-RAID-Funktionalität in günstigen 4- und 8-Port-Karten Intelligent Power Management reduziert Strom- und Kühlkosten um bis zu 70% Hybrid-RAID für maximale Leistung und Zuverlässigkeit Bewährte Technologie — mehr als 74 Millionen ausgelieferte Controller und Expander mit 6 Gb/s SAS-Ports Erfahren Sie mehr über Adaptec 6 Gb/s RAID-Controller: www.adaptec.com/partners/promo © PMC Sierra, Inc. 2011. Alle Rechte vorbehalten. PMC, PMC-SIERRA und Adaptec sind eingetragene Warenzeichen der PMC-Sierra, Inc. „Adaptec by PMC“ ist ein Warenzeichen der PMC-Sierra, Inc. Andere Produkte und Namen können Warenzeichen der entsprechenden Unternehmen sein. Eine komplette Liste aller PMC-Sierra Warenzeichen erhalten Sie unter www.pmc-sierra.com/legal 3 Einkaufsführer Storage Inhalt Editorial Editorial / Impressum�������������������������� Seite 3 Speicher muss sich Firmenprozessen unterordnen Datenspeicherung: Neue Technologien für mehr Speicherleistung������������������������������ Seite 4 Datensicherung: Backup: Kosten vs. Sicherheit und Verfügbarkeit��������������������������� Seite 7 Advertorial: SAN-Speicher mit redundanten Controllern������������������������������������ Seite 11 Advertorial: Storage-Hypervisor beschleunigt Vmware-Umgebung��������������������� Seite 12 Advertorial: Einheitliches Management bis in die Cloud����������������������������������� Seite 14 Advertorial: Was hat WAN-Optimierung mit Storage zu tun?���������������������� Seite 16 Datenspeicherung: Effizienter und skalierbarer Speicher����������������������������������������� Seite 18 Datenspeicherung: Daten so sicher wie im Safe��������� Seite 20 Virtualisierung: Mit Speicher virtualisierte Welten bändigen�������������������������� Seite 22 Datenspeicherung: Speicherbedarf analysieren und Engpässe vermeiden������������� Seite 24 Datensicherung: Disk-Backup – Dedup die perfekte Ergänzung���������������������� Seite 32 Haben Sie es bemerkt, es gibt einen neuen Trend? Big Data! Klingt irgendwie mächtig und wichtig. Auf neudeutsch handelt es sich dann doch »nur« um die Speicherung und Verwaltung von großen Datenmengen. Das Problem, das viele Firmen längst erkannt haben, doch teils weit davon entfernt sind, es in den Griff zu bekommen. Laut IDC verdoppelt sich das weltweite Datenvolumen etwa alle 18 Monate. Dafür sorgt vor allem die zunehmende maschinelle Erzeugung von elektronischen Informationen. Diese reichen von Protokollen über automatische Erfassungen in der Produktion und Logistik bis zur Digitalisierung von Dokumenten, Bildern, Musik und Videos (in HD und 3D). Hinzukommen große Datenmengen aus der Finanzindustrie und der Wissenschaft sowie dem Gesundheitswesen. Mittelständische Unternehmen stehen diesem Wachstum mitunter noch relativ gelassen gegenüber. Vieles geschieht zunächst unbemerkt und fließend. Aus einem NAS-Server werden irgendwann zwei Systeme, ein vollbestückter 19-Zoll-Schrank entwickelt sich zu einer ganzen Rack-Straße und plötzlich gibt es ein zweites Ausfallrechenzentrum an einem anderen Standort. Und dann soll das Ganze auch noch in eine Langzeitarchivierung überführt werden. Hinzukommt, dass sich die Budgets für IT-Ausstattung nicht im Gleichschritt mit dem steigenden Datenaufkommen entwickeln. Eher ist es so, dass mit weniger Mitteln mehr erreicht werden muss. Eines dieser Abwehrmittel lautet Virtualisierung und natürlich Cloud-Storage. Wichtig ist, den vorhandenen Speicher effizient zu nutzen und mit flexiblen On-Demand-Konzepten bei Bedarf zusätzlichen Storage dazuzukaufen, egal ob als physikalische Hardware oder eben als virtueller Speicherplatz in der Wolke. Auch wenn sich die einschlägigen Marktforscher geradezu mit neuen noch höheren Zahlen zur Cloud überschlagen, überwiegt trotzdem die Skepsis . Zu viele Fragen warten auf eine Antwort. Letztendlich läuft vieles auf den Preis hinaus. Wenn der Cloud-Storage günstig ist, wird das das Interesse von Unternehmen schüren, denn diese wollen oder müssen Platz, Energie und an der Kühlung sparen. Zum Teil fehlt es noch an der Vorstellungskraft, was die Cloud wirklich leisten kann – abgesehen davon was das wirklich sein soll. Lesen Sie dazu auch auf speicherguide. de (http://bit.ly/pZMJFV) wie das Auto der Zukunft von der Cloud profitieren soll. Bislang fragen IT-Leiter zu recht, wie kommen die Daten in die Cloud. Datacore-CEO George Teixeira hat es in einer Presserunde auf den Punkt gebracht: »Bisher läuft alles auf ein manuelles Kopieren der Daten hinaus – das kann es nicht sein.« Das heißt, ein externes Wolkengebilde nutzt niemanden etwas. Cloud-Storage muss sich wie jedes andere Speichermedium auch, in die Firmenstrukturen und -prozesse einbinden. Sehen wir es positiv, Erkenntnis ist der erste Weg zur Besserung. Ihr Karl Fröhlich, Chefredakteur, speicherguide.de Impressum storage-magazin.de – eine Publikation von speicherguide.de GbR Karl Fröhlich, Engelbert Hörmannsdorfer, Ulrike Rieß Redaktion: Karl Fröhlich, Ulrike Rieß Auf der Grün 8, D-83714 Miesbach Tel. 080 25/51 79, Fax: 080 25/51 71 E-Mail: redaktion@speicherguide.de Schlussredaktion: Christoph Busch, Brigitte Scholz Chefredaktion, Konzept: Karl Fröhlich (verantwortlich für den redaktionellen Inhalt) Tel. 089/740 03 99, Fax: 089/740 03 98 E-Mail: redaktion@speicherguide.de Oktober 2011 Layout/Grafik: Uwe Klenner, Layout und Gestaltung, Rittsteiger Str. 104, 94036 Passau, Tel. 08 51/9 86 24 15 www.layout-und-gestaltung.de Titelbild: iStockphoto.com Mediaberatung: Claudia Hesse, Tel. 00 41 41/761 32 47 E-Mail: media@speicherguide.de Webkonzeption und Technik: Günther Schmidlehner E-Mail: webmaster@speicherguide.de Urheberrecht: Alle in »storage-magazin.de« erschienenen Beiträge sind urheberrechtlich geschützt. Alle Rechte (Übersetzung, Eine Publikation von speicherguide.de Zweitverwertung) vorbehalten. Reproduktion, gleich welcher Art, sowie elektronische Auswertungen nur mit schriftlicher Genehmigung der Redaktion. Aus der Veröffentlichung kann nicht geschlossen werden, dass die verwendeten Bezeichnungen frei von gewerblichen Schutzrechten sind. Haftung: Für den Fall, dass in »storagemagazin.de« unzutreffende Informationen oder Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit der Redaktion oder ihrer Mitarbeiter in Betracht. speicherguide.de storage-magazin.de 4 Datenspeicherung Einkaufsführer Storage Pimp my Storage! Neue Technologien für mehr Speicherleistung Mit dem flächendeckenden Einsatz von SSDs, schnellen SAS-Medien, durchsatzstarken Verbindungen sowie Funktionen wie Space-Reclaim, MAID oder Tiering optimieren Hersteller nun ihre Produkte. Doch was bringt das »pimp my storage«? [ Ulrike Rieß ] Leistungsstärker, anpassbarer und effizienter sollen die Speichersysteme von heute sein. Nicht zuletzt deshalb, weil sich gerade im Zuge vermehrter Servervirtualisierung im Frontend kaum noch überschauen lässt, welche Anforderungen das an das Backend stellt, also an das Speichernetzwerk. Viele Unternehmen und IT-Abteilungen setzen mit viel Elan eine Konsolidierung ihrer Server um, VMware macht es möglich, und müssen erschreckt feststellen, dass Backup-Szenarien, Netzwerk und Speichersysteme nicht auf die daraus resultierenden Leistungsabfragen vorbereitet sind. Selbst wer nachgerüstet hat, kann nicht mit Gewissheit sagen, was ihm seine IT-Umgebung morgen abverlangt. Um hier nicht in eine endlose Investitionsschleife und historisch anmutendes Boxen-Stapeln im Rechenzentrum (RZ) zu geraten, braucht und verlangt der Speichersuchende Lösungen, die ihm eben diese Flexibilität und Skalierbarkeit gewährleisten. Die Hersteller ihrerseits haben die Not der RZ-Verantwortlichen erkannt und müssen Speicher nicht einmal neu erfinden, um zumindest einen Großteil der Erwartungen zu erfüllen. Oftmals reichen kleine »Facelifts« oder Upgrades der Systeme aus, sei es nun in Hardware oder Funktionalität. Steht dahinter noch eine speicherguide.de sinnvolle und langfristige Strategie kommt storage-magazin.de König Kunde auf seine Kosten. Hier ein kleiner Überblick, womit die Hersteller seit neuestem ihre Lösungen pimpen und auch noch pimpen werden, damit heutige Investitionen seitens des Anwenders nicht gleich morgen verpuffen. SSD & Co: Auf die Platte kommt es an Nach der Vorherrschaft der FC-Disks, insbesondere im Enterprise-Bereich, ist dieses Medium ins Hintertreffen geraten und die SATA-Platte hat ihren Siegeszug erfolgreich durchgesetzt. Das reicht aber nicht, was die Performance-Anforderungen vieler Speicherumgebungen angeht. Und so greifen nach dem anhaltenden Preisverfall der hoch performanten SSDs (Solid-State-Disks) immer mehr Hersteller ins Regal der Flash-Speicher und rüsten damit ihre Systeme zusätzlich aus. Denn nur im Mix machen SSDs wirklich Sinn. Da sie meist noch schwach auf der Kapazitätsbrust sind, beliebte Formate sind hier 100 und 200 GByte, ist es wenig sinnvoll ein 24-Slot-Gerät nur mit solchen Medien auszustatten. Und selbst wenn man auf die Idee käme, ein EnterpriseSystem nur mit SSDs auszustatten, müsste die Anwendung, die dem entgegen steht, schon eine erheblich I/O-Last produzieren und dies rund um die Uhr, um so eine Konfiguration wirklich zu rechtfertigen. Zum Leistungsvergleich: Eine 450-GByte-Disk mit 4-Gbit/s-Inter- Eine Publikation von speicherguide.de face und 15.000 U/min kommt auf einen Durchsatz von 164 MByte/s. Eine 800-GByte-Enterprise SSD mit 6-Gbit/sSAS-Anschluss kommt auf 370 MByte/s bzw. auf 600 MByte/s bei der I/O- Transferrate. Da lacht die transaktionsreiche Datenbank und muss erst einmal dagegen anschreiben. Die SSD-Medien sind vor allem nützlich, wenn Sie mit anderen Medien, beispielsweise SAS- und/oder SATA-Medien in einem System gemischt zum Einsatz kommen. Dann kann man mit Storage-Tiering das jeweilige Array optimal und den Anwendungsgegebenheiten entsprechend nutzen, was wiederum Investitionsschutz bietet. Allerdings ist noch zu erwähnen, dass SSDs zwar preislich attraktiver geworden sind, bei der Lebensdauer aber noch nicht mit anderen Formaten mithalten können – übrigens auch ein Grund, warum meist Single-Cell-SSDs ihren Weg in die Systeme finden. Multi-Cell-Flash-Speicher ist einfach noch anfälliger. Auch aus diesem Grund verbietet sich eigentlich ein rein auf SSDs ausgelegtes Gerät. Ausnahmen bestätigen auch hier die Regel, Hersteller wie Violin Memory sind hier einsame Vorreiter, die solche Produkte herstellen und sowohl SLC- als auch MLC-Drives verbauen. Mit weiter steigender Qualität der SSDs und ebenso weiter fallenden Preisen, werden wir auf dem Markt aber noch mehr solcher Lösungen in Zukunft sehen. Oktober 2011 Einkaufsführer Storage Quelle: Kingston Datenspeicherung SSDs bringen bessere Performance und die Möglichkeit des Storage-Tierings. aus verschlankt sich auch das Format der Festplatten, immer mehr 2,5-Zoll-SATAMedien drehen sich in den Gehäusen. Neben einer höheren Speicherdichte hat das den netten Nebeneffekt, dass diese Platten weniger Strom verbrauchen. Wer also umrüstet oder neu kauft, kann bei der Jahresnebenkostenabrechnung auf positive Effekte hoffen. FC und Ethernet: Erhöhter Puls im Netzwerk Darüber hinaus kommen weitere mehr oder weniger neue Plattentypen zum Einsatz, welche die Speicherdichte und auch die Leistung der Systeme erhöhen. Da ist zunächst die neue Generation an SASDrives zu nennen, die jetzt nach langem Warten endlich auch mit 15.000 U/min rotiert und somit den FC-Brüdern in nichts mehr nachsteht. Die SATA-Verwandtschaft hat hingegen zuletzt ein Kapazitäts-Upgrade erfahren. Nachdem sich die 1,5-TByte-Platte nie wirklich etablieren konnte, hat die 2-TByte-Disk allerorts Einzug gehalten und wird nun vom 3-TByteLaufwerk abgelöst, langsam, aber stetig. Das Schöne hierbei: Das Pimpen des Arrays kann einfach über ein Software- bzw. 888 Firmware-Upgrade erfolgen und schon ??????????????? steht dem IT-Verantwortlichen 50 Prozent mehr Speicherkapazität auf der gleichen Raumfläche zur Verfügung. Darüber hin- Natürlich nutzt der beste Speicher nichts, wenn das Netzwerk hinterherhinkt. Da können die Platten noch so schnell rennen, wenn nicht reichlich Daten ankommen, kann das Medium auch nicht seine volle Leistung zeigen. Und wenn zu viele Daten über eine zu dünne Leitung fließen, dann endet dies oft in einer Verstopfung, sprich in einem Flaschenhals und mit Leistungseinbußen. Sicher könnte man die Bilanz durch eine erhöhte Port-Zahl ausbessern, schöner ist es, wenn man schon mit Bordmitteln schneller ist als die Polizei erlaubt. Auch hier gibt es derzeit zwei Tendenzen, die das Speichersystem auf Trab bringen. Nach einer fast endlos scheinenden Zeit des 1-Gbit/s-EthernetTransfers – man mochte schon kaum an eine Evolution glauben – werden nun vermehrt und flächendeckend 10-Gbit/sEthernet-Karten verbaut. Zwar ist auch hier die Verbreitung etwas träge, aber in Fachhändler für Storage-Systeme Zukunft wird dies eher der Anschluss der Wahl. Ebenso sieht das in der Fibre-Channel-Umgebung aus. Die schießt sich gerade auf schnelle 8-Gbit/s-Verbindungen ein, auch wenn hier die nächste Generation mit 16 Gbit/s schon in den Startlöchern steht. Diese Verzehnfachung (Ethernet) bzw. Verdoppelung (FibreChannel) der Bandbreiten macht es möglich, dass sich die Speichersysteme an einer virtuellen Welt im Frontend nicht gleich verschlucken. Funktionen sind der Turbo für den Speicher Aber Hardware ist nicht alles, um existierenden Speicher auf Tuner-Art aufzubohren. Mit den richtigen Software-Funktionen bringt der geplagte IT-Manager Schwung in die Boxen bzw. kann er sie optimiert ausnutzen. Wie bereits oben erwähnt bietet sich bei Systemen mit einer gesunden Festplattenmischung ein Storage-Tiering an. Dabei kommen Daten, auf die viel zugegriffen wird, beispielsweise auf die heißen SSD-Renner. Etwas unbeliebtere Datenkollegen landen auf günstigeren SATA-Drives. Da sich dieser Zustand aber ändern kann, gibt es Automatismen, die so genannte »Hot Einkaufsführer Storage Spots« auf der SATA-Platte erkennen, also wachsende Zugriffszahlen auf einem Bereich, und diese dann an den fitten FlashKollegen weiterleiten. Umgekehrt be- E-Company Kastanienallee 22, 14052 Berlin Tel. 030/308 83 80 Fax 030/30 88 38 30 E-mail: kontakt@ecompany.ag www.ecompany.ag Comline Computer + Softwarelösungen AG Leverkusenstraße 54 22761 Hamburg Tel. 040/51 12 10 Fax 040/51 12 11 11 info@comlineag.de www.comlineag.de TargoSoft IT-Systemhaus GmbH Amsinckstraße 65, 20097 Hamburg Tel. 040/235 12 20 Fax 040/23 51 22 40 info@targosoft.de, www.targosoft.de Probusiness Hamburg AG Elbberg 6b, 22767 Hamburg Tel. 040/18 88 28-0 Fax. 040/18 88 28-28 hamburg@probusiness.de www.probusiness.de/classic/ Godyo AG Prüssingstraße 35, 07745 Jena Tel. 036 41/28 70 Fax 036 41/28 72 87 marketing@godyo.com www.godyo.com Traffix Network Partner GmbH Barmbeker Strasse 10, 22303 Hamburg Tel. 040/682 87 20 Fax 040/68 28 72 50 sales@traffix.de, info@traffix.de www.traffix.de Basys EDV-Systeme GmbH Hermine-Seelhoff-Straße 1, 28357 Bremen Tel. 04 21/ 434 20 0 Fax 04 21/491 48 33 www.basys-bremen.de Netline Philipp-Reis-Straße 2a 37075 Göttingen Tel. 05 51/50 73 70 Fax 05 51/507 37 20 www.netline-gmbh.de Dialog Computer Systeme GmbH Helmholtzstraße 2-9, 10587 Berlin Tel. 030/390 70 90 Fax 030/391 70 06 info@dcs.de, www.dcs.de Antauris AG Moorfuhrtweg 17 22301 Hamburg Tel. 040/22 74 43 00 Fax 040/22 74 43 11 info@antauris.de, www.antauris.de DTS Systeme GmbH Schrewestraße 2 32051 Herford Tel. 052 21/101 30 00 Fax 052 21/101 30 01 info@dts.de www.dts.de PDV-Systeme GmbH Dörntener Straße 2 A, 38644 Goslar Tel. 053 21/370 30 Fax 053 21/37 03 89 24 E-Mail: info@pdv-systeme.de www.pdv-systeme.de SHD System-Haus-Dresden GmbH Drescherhäuser 5b, 01159 Dresden Tel. 03 51/423 20 Fax 03 51/423 21 00 info@shd-online.de www.shd-online.de 0 Interface business GmbH Zwinglistraße 11/13, 01277 Dresden Tel. 03 51/31 80 90 Fax 03 51/336 11 87 info@interface-business.de www.interface-business.de 1 Oktober 2011 2 5 Probusiness Enterprise Consulting GmbH & CO.KG Rathenaustr. 13 - 14 30159 Hannover Tel. 05 11/600 66-0 Fax 05 11/60 06 61 55 consulting@probusiness.de www.probusiness.de/enterpriseconsulting/ Janz Informationssysteme AG Im Dörener Feld 8, 33100 Paderborn Tel. 052 51/155 00 Fax 052 51/155 01 90 www.janz-it.de 3 Eine Publikation von speicherguide.de Fortsetzung auf Seite 8 speicherguide.de storage-magazin.de 6 Datenspeicherung Foto: EMC Data Domain Einkaufsführer Storage Früher nur als Appliance erhältlich, mittlerweile auch eine Software-Funktion: Deduplizierung. merkt diese Funktion auch nachlassendes Interesse an Blöcken auf den SSDs. Erfolgt zum Beispiel seit 30 Minuten kein Zugriff mehr, der Wert lässt sich variabel einstellen, dann verschwindet dieser Datensatz im SATA-Speicher. Durch das Verschieben je nach Zugriffszahlen muss der Speicherbeauftrage nicht hektisch Platten oder gar Boxen ins Rechenzentrum stellen, um mehr Performance oder mehr Speicher für den Fall aller Fälle bereit zu halten. Die Medien werden optimal genutzt und erst, wenn der übliche 90-Prozent-LastSchwellwert erreicht ist, muss er an Erweiterung denken. Mit Thin-Provisioning und Zero-SpaceReclaim stehen Automatismen zur Verfügung, die eine Auslastung des Geräts auch ohne Tiering schon verbessern können. Beim Thin-Provisioning wird einem Volume virtuell mehr Speicher angewiesen, als es wirklich erhält. Realer Speicher wird erst verteilt, wenn es zum Schreibvorgang kommt. Damit lassen sich Ressourcen-Verteilungen zum Einen für die Abrechnung sauber aufteilen, zum Anderen verschenkt man keinen Platz, da nur in Anspruch genommen wird, was die Anwendung wirklich braucht. Früherer Nachteil: wurde etwas gelöscht, verblieb der wieder frei gewordene Speicherplatz ungenutzt in dem Volume. Hier schafft Zero-Space-Reclaim Abhilfe. Denn diese Funktion sucht nach den Null-Blöcken, sammelt sie ein und gibt sie wieder zur freien Verfügung. Manueller Aufwand fällt weg und das System hat immer die reelle Kapazität zur Verfügung. Des Weiteren sorgt Deduplizierung für schlank genutzte Speicher-Arrays. Früher nur als Applikation erhältlich, gibt es diese Funktion nun schon als Software oder direkt im Speichersystem integriert. Hier sorgt ein spezielles Eliminierungsverfahren dafür, dass redundante Blöcke entfernt und einzigartige in den Speicher gelangen. Die Einsparungsfaktoren können hier bis speicherguide.de zu gegen 50 und höher gehen, bei Soft- storage-magazin.de ware-Lösungen ist dieser Wert vielleicht nicht ganz so hoch wie bei der Hardware. oben genannten Ansätze zu Realität werden lassen. MAID und mehr: Strom sparen Virtualisierung kommt nicht aus der Mode Wer weiter und umweltfreundlicher denkt, kann zudem auf die MAID-Technologie zurückgreifen – quasi der E-Motor oder die Motorabschalttechnik an Ampeln für Speichergeräte. Bei dieser Methode werden wenig genutzte Festplatten – auch nach einem vorher festgelegten Zeitwert – heruntergefahren und in Stand-by-Modus versetzt. Das spart Strom, vor allem wenn die Zugriffe nur sehr unregelmäßig und eher verhalten sind. Der Nutzer vorm PC oder Server merkt indes nichts davon. Greift er auf eine Datei zu, so fährt das Medium wieder an und ist normal abzurufen. Haupteinsatzgebiet sind SATA-Arrays. Neben der Stromeinsparung spart man sich auch die Kühlung, denn Platten, die nicht rotieren, erzeugen keine Hitze (und noch weniger Lärm). Cloud: Neue Architekturen für die Wolke Beim Thema Cloud, das nun Superlative an Flexibilität, Effizienz und Auslastung verspricht, reicht einfaches »anbauen« nicht aus. Hier muss schon richtig geschraubt werden, damit der Speicher fit für die Wolke wird. Scale-Out, Grid-Storage, Unified-Storage und vor allem Virtualisierung heißen die Zauberworte hier – ähnlich dem Bi-Turbo oder Kompressor in der Motorenbranche. Scale-out soll für Skalierbarkeit auf unterschiedlichen Ebenen und je nach Bedarf sorgen (Performance, Kapazität, Konnektivität), auch unabhängig voneinander. Grid-Storage sieht ähnliches vor. Unified Storage möchte alle verschiedenen Technologien der Speicherwelt unter einem Dach vereinen, meistens Block- und File-Protokoll. Und Virtualisierung ist die treibende Kraft, die die Cloud erst ermöglicht. All diesen neuen Ansätzen ist gleich, dass es letztlich um eine globale und transparente Verteilung von Ressourcen gehen soll, die dem Endanwender, IT-Manager, Großunternehmen oder Apple-Produkt-Nutzer immer die Leistung und Kapazität zur Verfügung stellt, die er momentan braucht. Und noch schöner wäre es, wenn sich dies dementsprechend abrechnen ließe. Nach zwei Jahren steht die Branche noch immer am Anfang, aber kommt langsam in Fahrt. Derzeit stellen viele Hersteller ihre Architekturen vor, welche die Eine Publikation von speicherguide.de Bei der Virtualisierung muss man deutlich zwischen der im Server- und der im Storage-Bereich unterscheiden. Beides ist möglich, beides ist machbar. Allerdings hat sich die Server-Virtualisierung in den letzten fünf Jahren so rasant durchgesetzt, dass die Speicherbranche von diesen Umsetzungszahlen nur träumen kann. So langsam kommen aber Anbieter und Speichersuchende darauf, dass es doch wohl eine ganz tolle Idee wäre, wenn man beide virtuellen Welten unter ein Dach bringt und optimal nutzen kann. Viele Vorteile einer Serverkonsolidierung gehen nämlich durch ineffektiven Speicher verloren. Hitachi Data Systems macht es hier vor und zeigt mit seiner »VPS« eine reelle End-to-End-Lösung, die sich in unterschiedlichen Tiefen skalieren lässt, Server-Virtualisierung tief integriert und alle Funktionen systemübergreifend nutzbar macht. In diese Richtung wird es wohl gehen, denn nur so profitiert man von den Vorteilen der Virtualisierung, beim Server sowohl als auch beim Speicher. Wer Speicher einfach verwaltet ist König Nicht zuletzt erfahren wir ein Umdenken beim Verwalten von Speichern und Daten. Wenn sogar EMC von seiner Command-Zeile ablassen kann und ein App für die »VNXe« hervorzaubert, dann deuten alle Zeichen auf einfaches Management hin. Das Optimum wäre natürlich eine zentrale Oberfläche, die einen zentralen Speicher-Pool konfigurierbar, überwachbar, analysierbar und wartbar macht. Fast alle Anbieter, angefangen von EMC über Hewlett-Packard, HDS, IBM oder NetApp, versuchen sich derzeit daran. Oft ist die Einbindung von Fremdspeicher ein Problem, aber HDS und HP haben hier schon gute Lösungen vorzuweisen. Diese Software-Sparte wird nun zur Königsdisziplin. Das haben alle erkannt. Hier können wir in Kürze sicher auch noch mehr Upgrades und Angebote erwarten, die dann die Bedienung des Speichersystems pimpen. Und das wird letztlich den größten Ausschlag geben, denn was nutzt einem ein PS-starker Bolide, wenn man die Leistung nicht auf die Straße bringt. Oktober 2011 Einkaufsführer Storage Datensicherung 7 Marktübersicht Tape-Librarys Backup: Kosten versus Sicherheit und Verfügbarkeit Für Magnetbänder spricht eine lange Lebensdauer und Haltbarkeit von bis zu 30 Jahren. Auch bei den Betriebskosten punkten Tape-Librarys im Vergleich mit Disk-Backup-Systemen. Eine durchdachte Datensicherungsstrategie kombiniert beide Welten und nutzt Bänder als Auslagerungsmedium und zur Langzeitarchivierung. [ Karl Fröhlich ] Selbst für Experten sieht es so aus, als ob nur noch Disk-Backup zur primären Datensicherung in Frage kommt. Vor allem die Daten-Deduplizierung hat Schwung in das Segment gebracht und den Einsatz von traditionellen Tape-Librarys verändert bzw. überflüssig gemacht. Allerdings lassen sich damit alle Anforderungen adressieren: »Dedup eignet sich nicht für komprimierte Dateiformate bzw. verschlüsselte Daten«, sagt Rocco Frömberg, Produktmanager bei TIM. »Letztlich stellt sich oft die Frage nach Kosten versus Sicherheit und Verfügbarkeit der Daten. Für ihr Backup und Archiv beantworten dies viele Firmen weiterhin mit Tape Automation, oft kombiniert mit smarten, neuen Lösungen.« »In vielen Anwendungen ist tatsächlich ein Disk-System vorgeschaltet, wobei die Daten anschließend auf Tape gespeichert werden – ein klassisches Backup-to-Diskto-Tape (B2D2T)«, erklärt Andreas Hellriegel, Sales Director CEE bei Tandberg Data. »Für einen Großteil der Unternehmen ist diese Lösung praktikabel und sinnvoll. Allerdings gibt es Anwendungen wie den Audio-Video-Bereich, die durchaus Tape-Librarys als primäres BackupSystem einsetzen. Dort sind viele große einzelne Dateien zu finden, die auf Band mit hoher Geschwindigkeit gesichert werden können. Tapes sind zuverlässig, austauschbar und weisen nach wie vor die Oktober 2011 geringsten Speicherkosten pro GByte bzw. TByte auf.« Tape-Librarys für Backup und Archivierung »Ein Argument für Tape ist, dass die Budgets der Firmen nur schwer Schritt halten, mit den massiven Datenwachstum«, sagt Robert Guzek, Eternus Business Management Germany bei Fujitsu Technology Solutions. »Experten gehen hier von einer Vervielfachung im Faktor 17 alle zehn Jahre aus. Gemäß eine Studie der Horison Information Strategies, liegt bei der genannter Einsatzweise eine Preisdifferenz zwischen Tape und Disk von fast 50 Prozent vor.« Ein weiteres gewichtiges Argument sind die Betriebskosten: Trotz zunehmenden Eco-Mode bei Disk kann ein Tape zu überaus großen Einsparungen bei den Energiekosten beitragen, wenn Firmen in der Vergleichsrechnung Strom und Klimakosten berücksichtigen. Je nach Konstellation sei laut Guzek ein Faktor von bis zu 290 erreichbar: »Tape ist ein Paradebeispiel für Green-IT. Bei Aufbewahrungsfristen bieten Bänder erhebliche Vorteile, neben der längeren Standzeit der Systeme (Faktor 2 - 3) und der damit verbunden besseren TCO, liegt die Lebensdauer der Daten (»max shelf life«) bei Tape 30 Jahren, gegenüber zehn Jahre bei Disk.« »Für Tape spricht natürlich die Kapazität, die es im Vergleich zu Festplatten erlaubt, deutlich mehr Daten zu spei- chern«, argumentiert Andy Walsky, VP EMEA bei Overland Storage. »Darüber hinaus ist die Technologie zukunftssicher, da die Entwicklung von LTO (Linear-TapeOpen) weiter voranschreitet. LTO-6 wird in 2012 kommen und LTO-8 ist schon in der Planung. Auch der Platzbedarf pro Quadratmeter im Data Center ist gering, da 500 Kassetten bereits ein PByte Kapazität zur Verfügung stellen.« »Das Medium Tape ist dabei eine Renaissance zu erleben« behauptet Kurt Gerecke, Certified Senior Storage Consultant bei IBM, »weil es gelungen ist, GMR-Technik in die Laufwerke zu adaptieren. Das ergibt mit Dünnfilmbeschichtungen auf der Kassette die Möglichkeit, riesige Kapazitäten auf dem Bandmedium abzuspeichern. Das Datenwachstum ist vor allem im Archivierungsbereich riesig. Dort werden hoch kapazitive Datenträger, die vor allem keinen Strom benötigen, gebraucht.« Kaufkriterien für Bandbibliotheken Für TIM-Manager Frömberg lauten die klassischen Vorteile einer guten Tape-Library: »Große Kapazität bei kleiner Stellfläche, Robustheit, einfache Skalierbarkeit, die Möglichkeit zur Datenauslagerung und niedrige Anschaffungs-/Betriebskosten erhalten und kombiniert diese geschickt mit neuen Funktionen, die der geänderten Rolle im Datensicherungskonzept der Unternehmen gerecht werspeicherguide.de den. Wie bei vielen anderen Storage- Eine Publikation von speicherguide.de storage-magazin.de 8 Datensicherung Einkaufsführer Storage Lösungen findet die Weiterentwicklung heute fast ausschließlich bei der Firmware/Software statt.« Für Firmen lohne sich daher ein genauer Blick auf die LibraryEigenschaften, abseits der Anzahl von Slots/Laufwerken. Daneben gibt es viele hilfreiche Funktionen, wie eine Überwachung mit proaktiven Warnhinweisen, Verschlüsselung, Zugriffsrechte-Management, Daten-Replikation für den Aufbau eines Archivs und Media-Handling. »Eine Tape-Library sollte heute einen kleinen Einstieg darstellen und dann in große Kapazitäten skalierbar sein«, ergänzt IBM-Manager Gerecke. »Wegen des Wachstums in Archivierungsumgebungen, bieten Systeme die Möglichkeit, möglichst viele Kassetten-Slots auf kleinstem Raum unterzubringen. Wenn entsprechende Leistungsanforderungen existieren, sollte der Zugriff auf die Kassetten möglichst schnell vonstattengehen. Dazu ist ein entsprechend schnelles Robotersystem notwendig, das möglichst mit einem Doppelgreifer ausgestattet ist.« Zudem ist ein gutes Reporting-System wünschenswert, welches alle Vorgänge in der Library protokolliert. Wichtig ist auch, dass der Bandroboter redundant in die vorhandene Infrastruktur (z.B. eines SANs) eingebunden werden kann, sodass die Library auch bei fehlenden Pfaden oder Switchen weiterarbeitet. »Heutige Produkte sollten einfach zu installieren und zu warten sein«, ergänzt Fujitsu-Manager Guzek. »Einstiegssysteme sollten sich von den IT-Abteilungen Einkaufsführer Storage selbst in Betrieb nehmen lassen. Dies gilt auch für nötige Kapazitätserweiterungen. Die Enterprise-Klasse setzt eine komplet- te Redundanz voraus. Dazu zählen, neben der Intelligenz und Stromversorgung, auch die Fahrstraße. Weiter sind »hotreplaceable Robots« und ein unterbrechungsfreies Aufrüsten der Kapazität wünschenswert. Neben den Librarys sind Laufwerke eine wichtige Komponente: Laufwerke wie ein »T10000« von Oracle stellen in verschiedenen Szenarien eine sehr sinnvolle Alternative zu den Standard LTO-Drives dar. Unterscheidung – Einstieg, Midrange, Highend Die verschiedenen Größenordnungen unterscheiden sich primär in den vorhandenen Schnittstellen sowie der Anzahl an Laufwerken und Stellplätzen. »Für den Einstiegsbereich kommen zumeist Autoloader zum tragen«, sagt Tandberg-Manager Hellriegel. »Diese sind in der Regel mit einer SAS-Schnittstelle sowie einem Laufwerk ausgestattet und fassen bis zu acht Medien.« Als Bandformat findet sich in diesem Segment zumeist LTO-3 oder LTO-4. Die Schnittmenge zum Midrange bilden beispielsweise Geräte mit LTO5-Bändern mit einer Kapazität von bis zu 60 TByte. Generell steigert sich im Midrange Bereich natürlich die maximal mögliche Geschwindigkeit, Kapazität und der Funktionsumfang. Hier finden sich skalierbare Librarys, in der Regel mit bis zu zwei Bandlaufwerken (LTO-4/LTO-5) und zwölf bis 24 Medienslots. »Highend-Librarys müssen von hunderten bis zu tausenden Bandstellplätzen skalieren und die Möglichkeit bieten, mehrere hundert Tape-Drives zu unterstützen«, erläutert TIM-Manager Fröm- Fortsetzung von Seite 5 Fachhändler für Storage-Systeme ADA – Das Systemhaus GmbH Siemensring 54-56, 47877 Willich Tel. 021 54/490 90 Fax 021 54/49 09 81 11 info@ada.de, www.ada.de 4 Ascad GmbH Harpener Heide 7, 44805 Bochum Tel. 02 34/959 40 Fax 02 34/959 42 00 info@ascad.de, www.ascad.de Sievers-SNC Hans-Wunderlich-Str. 8, 49078 Osnabrück Tel. 05 41/949 30 Fax 05 41/949 32 50 www.sievers-group.com speicherguide.de storage-magazin.de Computacenter AG & Co. OHG Europaring 34-40, 50170 Kerpen Tel. 022 73/59 70 Fax 022 73/59 71 300 E-Mail: communications.germany@ computacenter.com www.computacenter.de 5 Modular Computer Systems GmbH Oskar-Jäger-Straße 50, 50825 Köln Tel. 02 21/954 46 60 Fax 02 21/95 44 66 99 info@modcomp.de www.modcomp.de Eine Publikation von speicherguide.de berg. »Die Anforderungen an die Zuverlässigkeit, die Verfügbarkeit und den Service sind für diese Systeme sehr viel höher – auch weil sie eine riesige Datenmenge vorhalten.« Zudem setzen IT-Verwalter Management-Funktionen wie die Überwachung von Subsystemen, FehlerReporting, SAN-Port-Failover und die Integration mit Framework-Tools voraus. Markt und Entwicklung »Für große Systemumgebungen wird Band weiter das günstige Medium bleiben«, erwartet Fujitsu-Manager Guzek. »Bei Tape ist rund alle zwei Jahre eine Halbierung des Preises pro GByte zu erwarten. Weiter ist mit steigenden Kapazitäten bei den Medien zu rechnen, in den nächsten Jahren sind Bänder mit Kapazitätsgrößen bis 32 TByte möglich.« Auch werde die Datentransferrate weiter zunehmen. Anwendungstechnisch sei zukünftig eine zunehmende Segmentierung in vier Kategorien zu erwarten: Disk-Archiv und Backup, Tiered-Backup, TieredArchive und Deep-Archive. Die drei erst genannten realisiert Fujitsu beispielsweise bereits heute schon mit seiner »ETERNUS CS«. Ein Deep-Archiv besteht aus einer Bandlösung und ECM (Enterprise-Content-Management). Im Einstiegssegment und auch selektiv im Midrange wird Tape in den nächsten Jahren rückläufig sein. Dort hält Deduplikation verstärkt Einzug. »Im EnterpriseSegment ist weiter mit Wachstum zu rechnen«, sagt Guzek. »Als Ausblick auf 889 das Jahr 2014 ist zu erwarten, dass Tape ?????????????? die 1-Cent-Grenze (US-Dollar) pro GByte erreichen wird.« Kramer & Crew GmbH Stolberger Straße 5, 50933 Köln Tel. 02 21/954 24 30 Fax 02 21/95 42 43 20 crew@kramerundcrew.de www.kramerundcrew.de Lanware Computer GmbH Eifelblick 19, 53619 Rheinbreitbach Tel. 022 24/988 91 55 Fax 022 24/98 89 161 info@lanware-computer.de www.lanware-computer.de Datagroup Köln GmbH Schanzenstraße 30, 51063 Köln Tel. 02 21/96 48 60 Fax 02 21/96 48 62 00 koeln@datagroup.de www.datagroup.de PDV-Systeme AZ1 GmbH Unnaer Str. 31a, 59439 Holzwickede Tel. 02301/1849464 Fax 02301/1849466 http://ifair-extra.az1.de/ H & G, Hansen & Gieraths GmbH Bornheimer Straße 42-52, 53111 Bonn Tel. 0228/ 9080 700 Fax: 0228/9080 405 info@hug.de www.hug.de Systrade GmbH Norsk-Data-Straße 1 61352 Bad Homburg Tel.06172/8555 0 Fax06172/8555 444 info@systrade.de www.systrade.de 6 Fortsetzung auf Seite 26 Oktober 2011 Olympus setzt sein StorageManagement mit Fujitsu in ein neues Bild »Mit ETERNUS DX bietet Fujitsu eine überzeugende Lösung für unsere hohen Ansprüche an Zuverlässigkeit, Performance und Wirtschaftlichkeit im Storage-Management.« Hartmut Hahn, General Manager Information Systems, Corporate Division, Olympus Olympus hat der Welt das erste Endoskop beschert, entwickelt wegweisende Kameratechnik und ermöglicht tiefgreifende Erkenntnisse mit führender Mikroskopie: Innovationskraft, die rund um den Globus stattliches Umsatzwachstum generiert – und Petabytes von Daten produziert. Olympus lenkt den Strom dieser Daten mit Fujitsu in die Bahnen einer zuverlässigen und sicheren Speicherung. Altgediente Plattenspeicher wurden im laufenden Betrieb durch modernste ETERNUS Storage-Technologie von Fujitsu abgelöst. Olympus setzt damit neue Maßstäbe für ein Storage-Management, das sowohl aus dem Blickwinkel der Zuverlässigkeit als auch der Wirtschaftlichkeit überzeugt. http://de.fujitsu.com/referenzen-in-deutschland 10 Datensicherung Einkaufsführer Storage Marktübersicht Tape-Librarys Hersteller Actidata www.actidata.com Cristie Data Products www.cristie.de Fujitsu Technology Solutions de.ts.fujitsu.com/storage IBM www.storage.ibm.de Produktname Bandformat Max. Tape-Slots Max. Tape-Drives Kapazität native (TByte) Transferrate native Formfaktor Nettopreis (Euro) actiLib Library 2U actiLib Library 4U actiLib Library 8U actiLib Library 8U GigaStream T24L GigaStream T48L GigaStream T8L GigaStream T96L Eternus LT40 S2 Eternus LT40 S2 Eternus LT60 Eternus LT60 Eternus LT60 TS3100 TS3200 TS3310 TS3500 LTO-5 LTO-5 LTO-4 LTO-5 LTO-3, LTO-4, LTO-5 LTO-3, LTO-4, LTO-5 LTO-3, LTO-4, LTO-5 LTO-3, LTO-4, LTO-5 LTO-4 LTO-5 LTO-3, LTO-3 WORM LTO-4, LTO-4 WORM LTO-5, LTO-5 WORM LTO-3, LTO-4 LTO-3, LTO-4 LTO-3, LTO-4 LTO-1, LTO-2, LTO-3, LTO-4, TS1120, 3592, TS1130 LTO-4 LTO-5 LTO-4 LTO-5 LTO-5 LTO-4 LTO-5 LTO-5 LTO-4, LTO-5 LTO-4 HH , LTO-5 FH LTO-4, LTO-5 LTO-4 HH , LTO-5 FH LTO-4, LTO-5 LTO-4 LTO-4 LTO-5 LTO-4 LTO-5 LTO-4 LTO-5 LTO-4 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 LTO-4, LTO-5 24 48 96 96 24 48 8 96 24 24 48 48 48 24 48 k.A. k.A. 2 4 4 4 2 4 1 4 2 2 4 4 4 2 4 k.A. k.A. 38,4 76,8 76,8 153,6 36 72 12 144 19,2 38,4 19,2 38,4 76,8 17,6 35,2 316,8 80.000 504 GByte/h 504 GByte/h 432 GByte/h 504 GByte/h 1 TByte/h 2 TByte/h 0,5 TByte/h 2 TByte/h 432 GByte/h 504 GByte/h 216 GByte/h 288 GByte/h 504 GByte/h 864 GByte/h 1.728 GByte/h 7,8 TByte/h 1.728 TByte/h 2U Rackmount 4U Rackmount 8U Rackmount 8U Rackmount 2U Rackmount 4U Rackmount 1U Rackmount 8U Rackmount 2U Rackmount 2U Rackmount 4U Rackmount 4U Rackmount 4U Rackmount 2U Rackmount 4U Rackmount 5U Rackmount Floorstand ab 5.590 ab 8.200 ab 11.200 ab 12.780 ab 4.490 ab 6.490 ab 3.090 ab 11.490 ab 4.870 ab. 4.390 ab 2.350 ab 5.500 ab 9.650 ab 3.891 (o. Drive) ab 7.301 (o. Drive) ab 26.136 (o. Drive) ab 49.298 (o. Drive) 9 9 30 30 30 60 60 60 240 24 240 48 500 44 36 36 36 36 44 44 44 50 50 44 44 44 54 54 114 114 11 11 22 22 40 1 1 2 2 2 4 4 4 16 2 16 4 12 2 2 2 2 2 2 2 2 3 3 4 4 4 5 5 5 5 2 2 2 2 2 7,2 13,5 24 45 45 48 90 90 360 36 360 72 750 35,2 28,8 54 28,8 54 35,2 66 35,2 75 75 66 66 66 81 81 171 171 16,5 16,5 33 33 60 120 GByte/s 120 GByte/s 280 GByte/s 280 GByte/s 280 GByte/s 560 GByte/s 560 GByte/s 560 GByte/s 864 GByte/h 1,2 TByte/h 1,7 TByte/h 2,4 TByte/h 5,18 TByte/h 864 GByte/h 864 GByte/h 1 TByte/h 864 GByte/h 1 TByte/h 864 GByte/h 1 TByte/h 864 GByte/h 1.5 TByte/h 1.5 TByte/h 1 TByte/h 1 TByte/h 1 TByte/h 2.5 TByte/h 2.5 TByte/h 2.5 TByte/h 2.5 TByte/h 1 TByte/h 1 TByte/h 1 TByte/h 1 TByte/h 1.008 GByte/h ab 3.000 ab 3.350 ab 3.670 ab 4.980 ab 4.890 ab 5.160 ab 6.470 ab 6.380 ab 5.900 ab 3.900 ab 11.000 ab 7.500 ab 33.900 ab 7.950 ab 8.640 ab 9.030 ab 7.900 ab 8.180 ab 8.880 ab 9.180 ab 8.080 ab 9.870 ab 10.870 ab 8.480 ab 9.770 ab 8.550 ab 11.680 ab 12.700 ab 14.400 ab 15.420 ab 5.490 ab 6.090 ab 5.860 ab 6.460 ab 6.000 LTO-4, LTO-5 80 5 120 2.520 GByte/h Scalar i500 LTO-3, LTO-4, LTO-5 409 18 614 9 TByte/h Scalar i6000 SDLT 600, DLT-S4, LTO-3, LTO-4, LTO-5 LTO-3, LTO-4 5.322 96 7.983 48 TByte/h 1U Rackmount 1U Rackmount 2U Rackmount 2U Rackmount 2U Rackmount 4U Rackmount 4U Rackmount 4U Rackmount Rackmount Rackmount Rackmount Rackmount Standalone 5U Rackmount 5U Rackmount 5U Rackmount 5U Rackmount 5U Rackmount 5U Rackmount 5U Rackmount 5U Rackmount 6U Rackmount 6U Rackmount 5U Rackmount 5U Rackmount 5U Rackmount 10U Rackmount 10U Rackmount 10U Rackmount 10U Rackmount Floorstand Floorstand Floorstand Floorstand 3U Desktop/ Rackmount 6U Desktop/ Rackmount 5U/14U Desktop/ Rackmount und 23U Rackmount Floorstand 50 4 40 max. 576 GByte/h pro Drive 4U Rackmount ab 3.900 LTO-4, LTO-5 LTO-4/5, STK 9840D, T10000B/C LTO-4, LTO-5 LTO-4, LTO-5 24 5.821 2 56 36 29.625 1 TByte/h 48,4 TByte/h 2U Rackmount Floorstand ab 5.300 ab 26.300 48 575 4 18 72 862 2 TByte/h 9 TByte/h ab 7.700 ab 15.500 LTO-4/5, STK 9840D, T10000B/C LTO-5 LTO-5 LTO-5 LTO-5 LTO-5 100.000 640 500 PByte 552,9 TByte/h 4U Rackmount max. 40U Rackmount Floorstand ab 165.000 24 40 77 114 151 2 4 8 12 16 36 60 115,5 171 226,6 1 TByte/h 2 TByte/h 4 TByte/h 6 TByte/h 8 TByte/h 2U Rackmount 4U Rackmount 8U Rackmount 12U Rackmount 16U Rackmount ab 3.761 ab 5.670 ab 10.947 ab 16.595 ab 21.604 NEC www.starline.de T09A2-L4H Autoloader T09A2-L5H Autoloader T30A Tape Library T30A Tape Library T30A Tape Library T60A Tape Library T60A Tape Library T60A Tape Library Overland Storage Neo 2000e www.overlandstorage.com Neo 200s Neo 4000e Neo 400s Neo 8000e Qualstar RLS-8204-L4 www.starline.de RLS-8236D-L4 RLS-8236D-L5 RLS-8236-L4 RLS-8236-L5 RLS-8244D-L4 RLS-8244D-L5 RLS-8244-L4 RLS-8350-L5 RLS-8350D-L5 RLS-8404H-L5 RLS-8444D-L5 RLS-8444H-L5 RLS-8360-L5 RLS-8360D-L5 RLS-83120-L5 RLS-83120D-L5 TLS-8211 TLS-8211D TLS-8222 TLS-8222D Quantum Scalar i40 www.quantum.com/ Products/TapeLibraries/ Scalar i80 Scalari6000/Index.aspx Spectra Logic www.spectralogic.com Oracle www.oracle.com/us/ products/servers-storage/ storage/tape-storage/ index.html Spectra Logic T50e SL24 Library SL3000 Library SL48 Library SL500 Library SL8500 Library Tandberg Data www.tandbergdata.com StorageLibrary T24 StorageLibrary T40+ StorageLibrary T80+ StorageLibrary T120+ StorageLibrary T160+ ab 7.600 ab 12.000 ab 62.000 Quelle: speicherguide.de speicherguide.de storage-magazin.de Eine Publikation von speicherguide.de Oktober 2011 Einkaufsführer Storage Advertorial 11 Mehr Sicherheit und Verfügbarkeit in einem System SAN-Speicher mit redundanten Controllern Die R-Serie der Icebox soll für mehr Ausfallsicherheit und Verfügbarkeit in Storage-AreaNetworks sorgen. Festplattenauswahl und Funktionsumfang gewährleisten optimalen Nutzwert der Systeme. Auch bei der den Host-Anschlüssen stehen dem Anwender mehrere Optionen zur Verfügung. [ Sven Meyerhofer, N-Tec ] Die Server-Virtualisierung verlangt vielen Speicherumgebungen eine neue Qualität an Ausfallsicherheit und Hochverfügbarkeit ab. Oft ist dies nur teuer zu erkaufen. Für mittelständische Unternehmen bedeutet das auch, teilweise Funktionen zusätzlich zu erwerben oder ein über dimensioniertes Speichergerät zulegen zu müssen. Die Firma N-TEC bietet jetzt eine neue Generation seiner »ICEBOX«-Serie an, die »ICEBOX-R«, welche bereits für unter 10.000 Euro mehr Sicherheit und Verfügbarkeit ins Rechenzentrum bringt. Das »R« der jüngsten Icebox-Generation steht für redundant bzw. für redundante Controller. Mit dieser Redundanz sorgt das System intern für Ausfallsicherheit und höhere Verfügbarkeit. Somit eignet sich diese Box durchaus für mittelgroße und große SAN-Umgebungen, die beispielsweise Daten virtueller Maschinen absichern müssen. Bei der Ausstattung lässt der Hersteller dem IT-Manager freie Wahl. So stehen als Festplatten kostengünstige SATAII-Festplatten mit drei TByte Kapazität zur Verfügung. Darüber hinaus sind mit 6-Gbit/s-SAS-Medien und SSDs auch Hochleistungslaufwerke verbaubar. Letztere gewährleisten einen Einsatz in transaktionsreichen Umgebungen wie bei Da tenbankanwendungen,videobearbeitend en Applikationen oder Testumgebungen. Bei den Anschlüssen kann der Anwender aus dem Vollen schöpfen und alle möglichen Interfaces wählen. Modell »Ri13/6R« verfügt über sechs 1-Gbit/s- Oktober 2011 Ethernet-Schnittstellen, »RiX3/6R« vereint zwei 10-Gbit/s- mit zwei 1-Gbit/sEthernet-Anschlüssen pro Controller. Zwei SAS-Ports sind im RS63R zu haben. Für Fibre-Channel-Konnektivität stehen die Iceboxen »RF43R« und »RF86R« zur Verfügung. Erstere hat zwei 4-Gbit/sFC-Schnittstellen auf der ControllerEinheit, letzteres vereint vier 8-Gbit/s-FCInterfaces mit zwei iSCSI-Ports. Darüber hinaus offeriert der Anbieter eine JBODErweiterungsbox, die auch zwei SASAnschlüsse mitbringt. Bessere Speichernutzung durch Funktionsangebot Zusätzlichen Datenschutz erreichen die Arrays durch die Unterstützung der S.M.A.R.T.-Technologie und den Einsatz der »Snapshot-on-the-box«-Methode. Hierbei lassen sich Snapshots unabhängig vom angeschlossenen Host- und Betriebs system erstellen. Zudem kann der Administrator »Volume Replication« nutzen, womit sich eine Kopie der Volumes auf eine oder mehrere Iceboxen auch an externe Standorte umsetzen lässt. Die Replikation der Volumes erfolgt zeitgesteuert auf Block-Level über dedizierte iSCSI-Replication-Links. Für optimierte Auslastung der Speicherkapazität stattet der Hersteller diese Systeme in Kürze mit Thin-Provisioning aus. So wird nur wirklich genutzter Speicherplatz belegt, auch wenn dem Volume virtuell mehr zusteht. Das verhindert Engpässe und unnütz brachliegende Kapazitäten. In der Vollausbaustufe mit 3-TByteSATA-Platten lassen sich 48 TByte Brutto- speicherkapazität nutzen. Die Festplatten sind wie bei allen N-Tec-Modellen hot swapfähig und lassen sich ohne Betriebsunterbrechung dynamisch und online erweitern oder austauschen. SATA, SSD als auch SAS-Drives können gemischt betrieben werden. Um einen reibungslosen Betrieb zu gewährleisten, lassen sich neben den hotswapfähigen Laufwerken, Lüftern und Netzteilen auch die Betriebs temperatur überwachen und im Fehlerfall entsprechende Meldungen generieren. Eine weitere Maßnahme gegen einen möglichen Plattenausfall ist die vertikale Anordnung der Platten. Diese sind so vor Vibrationen und gegenseitigem Hochschaukeln geschützt. Ein für den CCTVMarkt integriertes analoges Relais ermöglicht die Überwachung über und den direkten Anschluss an ein SicherheitsManagement-System. Die Konfiguration und Administration des Arrays erfolgt via Webbrowser mittels der intuitiven Web-Oberfläche. Fehlermeldungen können über SMTP, SMS, SNMP und Netsend (Winpopup) weitergeleitet werden. Die Überwachung des Speichersystems erfolgt unabhängig vom Host- und Betriebssystem, was wiederum den Betrieb wie in heterogenen Netzen K erlaubt. Weitere Informationen N-Tec GmbH Oskar-Messter-Str. 14, 85737 Ismaning Tel.: + 49 (0) 89 - 95 84 07-0 www.ntecgmbh.de speicherguide.de Eine Publikation von speicherguide.de storage-magazin.de 12 Advertorial Einkaufsführer Storage Fallstudie: MDW setzt auf Hochverfügbarkeit und Virtualisierung Storage-Hypervisor beschleunigt Vmware-Umgebung Die Universität für Musik und darstellende Kunst in Wien hat eine hochverfügbare, virtuelle Speicherlösung auf Basis des Storage-Hypervisors »SANsymphony« von Datacore implementiert. Zusammen mit der virtuellen Server-Infrastruktur unter Vmware erreicht die Uni Performance-Verbesserungen von bis zu 40 Prozent. Die Universität für Musik und darstellende Kunst (MDW) in Wien ist mit etwa 3.500 Studierenden eine der größten eigenständigen Kunstuniversitäten der Welt. Dabei betreibt man diverse pädagogische Lehrinstitute für die Musikausbildung im Instrumentalstudium, für die Gesangsausbildung, die Filmakademie und das Schauspiel im Institut für Schauspiel und Schauspielregie, besser bekannt als Max-Reinhardt-Seminar, das gegenwärtig sein komplettes Film- und Videoarchiv digitalisiert. Das Campusgeschehen ist geprägt von wechselnden Projekten auch in der Forschung. Studenten wird im Campus-Netzwerk individueller FileSpace zur Verfügung gestellt. Transparente Hochverfügbarkeit gefordert Als zentrale Speichersysteme waren je eine HP »EVA8000« bzw. »EVA6000« mit einer Bruttokapazität von 45 bzw. 28 TByte im Einsatz, die in einer Fibre-Channel-Infrastruktur auf zwei Rechnerräume innerhalb des Campus verteilt waren. Auf das SAN greifen eine Oracle »Real Application«-Cluster mit sechs Knoten für das Campus-Management und ein Novell »Open Enterprise«-Cluster mit 15 Knoten für File-, Mail- und Web-Services sowie einige weitere Linux- und SUN»Sparc«-Maschinen zu. Schon einige Jahre zuvor hatte man zudem einen Teil der Server-Hardware konsolidiert und VMware »ESX« eingeführt. Heute laufen auf speicherguide.de zehn physischen Servern knapp 100 vir- storage-magazin.de Foto: Soltiz/Minichmayr [ Verena Simon, Konzept PR ] Die Universität für Musik und darstellende Kunst installiert auf Basis der Software-Virtualisierung von Datacore eine hochverfügbare und transparente Storage-Struktur. tuelle Maschinen unter dem Server-Hypervisor im zentralen SAN. Eine insgesamt heterogene IT-Umgebung, einzig physische Microsoft Windows-Server suchte man vergeblich. Handlungsbedarf ergab sich durch die erhöhten Anforderungen an die Verfügbarkeit der zentralen Infrastruktur. Zwar konnten die Hardware-Systeme in sich durch Snapshots, Replikation und entsprechende RAID-Konfiguration gegen Datenverlust gesichert werden, eine echte Hochverfügbarkeit, die auch greift wenn eines der Systeme ausfällt oder planmäßig gewartet werden muss, war jedoch nicht gegeben. Eine Publikation von speicherguide.de Daraus ergaben sich die Anforderungen an ein neues Hochverfügbarkeitskonzept und man beschloss die Virtualisierung des Storage. So wandte man sich an seinen IT-Infrastruktur-Partner ACP und eruierte verschiedene Optionen. Die eigentlich naheliegende Lösung des Hardware-Herstellers HP »SVSP« schied mangels der Unterstützung gut funktionierender Linux-Treiber aus. Bei einem anderen ACPKunden, dem Wiener Parlament, lernte Hermann Rothe, IT-Verantwortlicher Kommunikationssysteme bei der MDW das auf Microsoft Windows aufsetzende »SANsymphony« von DataCore Software kennen: »Das war zunächst ein Oktober 2011 Einkaufsführer Storage Datacore als Storage-Hypervisor Auf zwei HP »Proliant DL380 G7« mit Intel Quad-Core-Prozessoren, je 48 GByte RAM und je drei QLogic Dual-PortFC-HBAs mit acht Gbit läuft als Betriebssystem »Windows Server 2008 R2«. Darauf wurde Sansymphony in der Version 7.0 als Virtualisierungs- und Speichermanagementinstanz installiert. Die StorageServer sind räumlich getrennt in den Rechenzentren untergebracht. Je zwei Fibre-Channel-Verbindungen dienen dem redundanten Anschluss an die Host- bzw. Storage-Infrastruktur. Für die direkte Verbindung der Storage-Server sind je zwei Adapter reserviert, um die synchrone Spiegelung ausfallsicher und performant zu gestalten. Durch die Virtualisierung der physischen Speicherplatten entsteht ein logischer Speicher-Pool, der von Sansymphony verwaltet wird. In diesen wurden die vorhandenen EVA-Systeme in den beiden Rechenzentren integriert und um eine zusätzliche EVA6400 mit 88 TByte erweitert. Sie beherbergt sowohl gespiegelte als auch ungespiegelte Daten. Geplant ist auch eine Erweiterung auf Seiten des 8000er Systems. Darüber hinaus wurde bereits eine kostengünstigere HP »P2000« mit 20 TByte SATA-Platten als NearlineStorage für die E-Mail-Sicherung bereitgestellt. Insgesamt steht heute eine Gesamtkapazität von rund 120 TByte zur Verfügung. Oktober 2011 13 tion-Cluster und die Novell Open-Enterprise-Cluster. Hochverfügbar konfiguriert sind dabei die Datenbanken sowie die Vmware, E-Mail und die wichtigsten FileServices. Andere Daten werden aus Kapazitätsgründen nicht hochverfügbar vorgehalten. Um die Speicherplatznutzung zu optimieren, setzt MDW außerdem Datacores Thin-Provisioning ein, das Speicherplatz jeweils nur nach Bedarf belegt, auch wenn die zugehörige LUN größer konfiguriert ist. Snapshots kommen für Testzwecke zum Einsatz. Performance-Verbesserung als Nebeneffekt Foto: Datacore kleiner Kulturschock für einen Nicht-Windows-Menschen und wir haben die Unterstützung diverser Linux- und SolarisDerivate genauestens geprüft. Überzeugt hat uns aber der Ansatz der ApplianceSoftware für Storage, den wir ja bei unseren Firewalls oder den Mail-Gateways ähnlich verfolgen. Unter dem Dach der Datacore-Software können wir flexibel und transparent Platten hinzufügen oder austauschen, HBAs, Memory und andere Komponenten variieren, kurz die komplette Storage-Infrastruktur kontinuierlich an unserem Bedarf ausrichten.« Trotz der großen Zufriedenheit mit dem Hardware-Hersteller entschied man sich auf Grund dieser Flexibilität und Hardwareunabhängigkeit für Sansymphony, das ein komplettes Feature-Set für das Management von Kapazität, Performance und die Datensicherung zentral für alle darunter liegende Speicher-Hardware mitbringt und als Unified-Storage-Management-Oberfläche fungiert. Advertorial Bei der MDW läuft »SANsymphony« als Virtualisierungs- und Speichermanagementinstanz – räumlich getrennt in zwei Rechenzentren. Die Datacore-Wolke stellt sich den Hosts dabei als ein Disk-System dar und gewährleistet durch synchrone Spiegelung die benötigte Hochverfügbarkeit. Neben der synchronen Spiegelung nutzt die MDW integrierte Standardfunktionen für das zentrale Einrichten virtueller Partitionen und die Zuweisung der virtuellen Plattenkapazität für die steigende Zahl an virtuellen Vmware-Maschinen. Die dynamische Zuweisung mit Thin-Provisioning optimiert dabei die Auslastung der Geräte im Pool, neue Disk-Kapazität kann jedoch jederzeit im laufenden Betrieb unabhängig vom Hersteller nachgelegt werden. Weil die Datacore-Server ihren Arbeitsspeicher als Cache nutzen, erhöht das Datacore-SAN die eigentliche Schreibgeschwindigkeit der Storage-Hardware und sorgt für performanten Betrieb. Datenmigration im Hintergrund Innerhalb von zwei Tagen war die Installation abgeschlossen. Nach erfolgreichen Testläufen überführte man die Datensätze in die virtuelle Umgebung. Heute versorgt die Datacore-Umgebung die komplette virtuelle Serverinfrastruktur unter Vmware sowie den Oracle Real-Applica- IT-Leiter Rothe resümiert: »Wir sind bislang mit der Datacore-Lösung voll kommen zufrieden. Wir haben mit Sansymphony nicht nur die geforderte Hochverfügbarkeit erzielt, sondern auch die Performance des vorhandenen Storage verbessert.« Als Beleg dafür führt der IT-Verantwortliche die PerformanceVerbesserung bei der Datensicherung an. Diese konnte durch das Caching um 30 bis 40 Prozent beschleunigt werden. Und mit dem Blick nach vorn führt er weiter aus: »Die Verwaltung der Speicherumgebung, insbesondere die Speicher-Provisionierung, erfolgt sehr viel einfacher und schneller als zuvor. Durch bereits realisierte und noch geplante Erweiterungen hat sich der Ansatz einer Software-Speichervirtualisierung schon gelohnt: Wir profitieren langfristig von der Flexibilität und Hardware-Unabhängigkeit der Lösung.« So sind bereits die nächsten Schritte angedacht: Demnächst wird die aus der Wartung laufende HP EVA 6000 erneuert, ohne dass mit einer Beeinträchtigung des laufenden Host-Betriebs gerechnet werden muss. Ebenso freut man sich auf die derzeit verfügbare neue Version »SANsymphony-V«, die dem IT-Verantwortlichen durch das integrierte Auto-Tiering weitere Administrations-Erleichterungen besonders im Umgang mit dem großen Bestand an Nearline-Daten verspricht. K Weitere Informationen Datacore Software GmbH Bahnhofstraße 18 D-85774 Unterföhring Tel.: +49 089 4613570-0 E-Mail: infoGermany@datacore.com www.datacore.de speicherguide.de Eine Publikation von speicherguide.de storage-magazin.de 14 Advertorial Einkaufsführer Storage Synergien nutzen in physikalischen und virtuellen Umgebungen Einheitliches Management bis in die Cloud Mit der Virtualisierung steigen die Anforderungen im Rechenzentrum. Eine StorageManagement-Lösung hilft dabei physikalische und virtuelle Umgebungen Herstellerübergreifend zentral und einheitlich zu verwalten. Commvaults »SIMPANA«-Suite deckt ein komplettes Daten- und Informationsmanagement ab. Unkontrollierbares Datenwachstum stellt bei Unternehmen aller Größenordnungen ein Problem dar. Ohne geeignete Tools steigen die Kosten exorbitant, da sie durch Sicherungs-, Wiederherstellungs-, Notfallwiederherstellungs- und Archivierungskopien um das sieben- bis zehnfache aufgebläht werden, und auch der Verwaltungsaufwand viel kostbare Zeit verschlingt. Konventionelle SoftwareLösungen sind nicht für die gestiegenen Ansprüche ausgelegt, die moderne Rechenzentren bewältigen müssen. In veralteten Konfigurationen werden verstreute Einzel-Ressourcen übermäßig belastet, so dass keine Ressourcen für die Sicherung bzw. für Kopien übrig bleiben. Und während das Wachstum der Daten stetig ansteigt, wird das Handlungsfenster immer kleiner, denen die Sicherungsarchitektur nicht standhält. Neue Technologien, gesetzliche Auflagen, die Prioritätenverlagerung von der Aufbewahrung zur Wiederherstellung, der Umstieg auf Cloud-Computing und die Einführung von Virtualisierung wirken sich gravierend auf die IT aus, die nicht mit den passenden Tools ausgestattet ist: Die Arbeitsvorgänge leiden darunter und der Verwaltungsaufwand kann kaum noch bewältigt werden sowie die nicht mehr ausreichenden Service-Level-Agreements (SLAs). Es gibt also viele Gründe eine Datenmanagement-Lösung einzusetzen, die zum einen diese ganzen Anforderungen speicherguide.de abdecken kann und zum anderen ein storage-magazin.de Grafik: Commvault [ Andreas Mayer, Commvault ] Simpanas »SnapProtect«, unterstützt VMs unabhängig von der Hardware bzw. des Herstellers. zentrales, einheitliches Management bietet, um die Komplexität zu reduzieren. Die Datenmanagement-Lösung soll möglichst dazu beitragen können, SynergieEffekte zu ermöglichen und auch schon mittelfristig Kosten einzusparen bzw. auch in absehbarer Zeit den Return on Investment (ROI) zu erreichen. Modulares Datenmanagement auf einer Plattform Die CommVault »SIMPANA«-Suite bietet beste Voraussetzungen, um die oben genannten Anforderungen zu erfüllen. Mit dem modularen Aufbau können alle Anforderungen von Backup/Recovery, Archi- Eine Publikation von speicherguide.de vierung, Replikation, SRM und umfassende Suche abgedeckt werden. Die Besonderheit dabei ist, dass ein komplettes Daten- und Informationsmanagement auf einer Technologie-Basis ermöglicht wird. Ein Administrator hat beispielsweise mit nur einer GUI und Management Konsole einen deutlich geringeren Verwaltungsaufwand und muss nur den Umgang mit einer Lösung lernen. Dazu kommt, dass die Datenhaltung und Speicherausnutzung durch die globale, eingebundene Deduplizierung stark optimiert wird, Kosteneinsparungen durch einfachere Verwaltung und geringeren Storage-Verbrauch ermöglicht werden. Oktober 2011 Einkaufsführer Storage Neben den umfangreichen Backup/ Recovery-Ansätzen kommt auch die umfassende Snapshot-Verwaltung »Snap Protect« dazu. Die Planung von Snapshots erfolgt über die zentrale CommvaultKonsole. Nach der Snapshot-Erstellung mountet und katalogisiert der CV-Medien-Agent den Snapshot in Commvault als Wiederherstellungskopie. Mit benutzerdefinierten Richtlinien werden Commvault-Snapshot-Kopien gesteuert (Deduplizierung auf Festplatte, Band oder Cloud-Speicher). Die Daten lassen sich unabhängig vom Speicherort wiederherstellen. Dabei kann der IT-Verwalter das gesamte Volume, die gesamte Anwendung oder aber einzelne Objekte, Datenbanken sowie Dateien wiederherstellen. Indessen gibt es eine umfangreiche Hardware-Unterstützung (EMC, Dell, HDS, HP, IBM, LSI, NetApp) mit hohem Integrationsgrad. Hier reicht der große Funktionsumfang von der Unterstützung virtueller Server, oder gezielte Sicherung von Postfächern und Archivierung auf der Basis von Snapshots bis hin zu mehr Wiederherstellungsoptionen wie »mounten und Data-Mining« oder E-Mails/Anhänge die direkt aus der Snapshot-Sicherung auf Postfachebene wiederhergestellt werden können. Der Vorteil hierbei sind Sicherungs- und Archivierungsvorgänge ohne Zugriff auf den Host. Der gleiche Zugriff, der die Sicherung von Postfachdaten aus Snapshots ermöglicht, kann auch zur Anwendung von Archivierungsrichtlinien auf E-Mail- und Dateiservern genutzt werden. Der Host lässt sich dadurch weiter entlasten und gibt zudem umfangreiche Kapazitäten auf teuren Tier-1-Festplatten frei, was wiederum häufigere Snapshots und damit eine verbesserte Sicherung ermöglicht. Globale Deduplizierung und Notfallwiederherstellung Schnell steigende Datenmengen und kleiner werdende Sicherungsfenster sind Herausforderungen für die IT, denn es gilt die Datenmengen innerhalb kürzerer Zeit zu sichern. Mit der konventionellen Methode, alles einfach von vorne nach hinten zu verschieben, ist dies nicht machbar. Schnelle (Notfall-)Wiederherstellung ist essentiell. Kompromisse zwischen schneller Wiederherstellung und Kosten müssen Unternehmen möglichst vermeiden. Ein weiterer Punkt ist die kostengünstige Skalierung der Lösung, um mit dem Wachstum Schritt zu halten. Die Lösung muss Oktober 2011 Advertorial bei Erreichung ihrer Auslastungsgrenze, eine Erweiterung ohne hohen Kostenaufwand ermöglichen. Deduplizierung mit der Simpana-Suite bedeutet den Einsatz einer ganzheitlichen Lösung, die sich durch eine zentrale Managementkonsole, eine Architektur, gemeinsam genutzte Ressourcen und eine Sicht der Betriebsabläufe auszeichnet. Die Deduplizierung erfolgt schon am Client, so dass die zu übertragende Datenmenge sich deutlich reduziert und das benötigte BackupFenster kleiner wird. Die Deduplizierung zieht sich so von den Clients über MediaServer und Storage-Tiers bis hin zum Tape sowie sogar bis in die Cloud durch. Diese globale Deduplizierung ist auch bis in Außenstellen einsetzbar. Damit ist ein Senden von Daten, die bereits von anderen externen Standorten gesendet wurden, nicht mehr erforderlich. Die Deduplizierungsdatenbank selbst wird gesichert und so werden weniger Ressourcen auf dem Medienserver benötigt. Die Notfallwiederherstellung der Daten wird per DASH (Dedupe Accelerated Streaming Hash) durchgeführt. Dabei sind keine replizierten Speicher erforderlich. Die deduplizierten Daten von externen Standorten können mit unterschiedlichen Aufbewahrungsrichtlinien verschoben werden, was reduzierten Speicherplatzbedarf für deduplizierte Daten und mehr Flexibilität für Notfallwiederherstellung und externe Standorte mit sich bringt. Die Funktionsweise von vollständigem DASH besteht darin, dass keinerlei Rehydration oder erneute Deduplizierung für synthetisch komplette Sicherungen erforderlich sind. Die Referenzzahlen werden aktualisiert und ausschließlich Metadaten auf die Festplatte geschrieben. Eine synthetisch vollständige Sicherung dauert so nur wenige Minuten. Virtualisierung und Datenmanagement Ein bedeutender Punkt ist die Datenverwaltung in virtualiserten Umgebungen. Die Simpana Virtualisierungslösung bringt im Zusammenspiel mit Snapprotect erhebliche Vorteile. So werden tausende von VMs unabhängig von der Hardware unterstützt. Dabei lassen sich nahezu zeitgleiche anwendungskonsistente Sicherungen hunderter virtueller Maschinen mithilfe arraybasierter Snapshots für knappe Sicherungsfenster erstellen. Mehrere RPOs pro Tag sind möglich. So kann der IT-Manager Speicher-, Bandspeicher- 15 und Cloud-Ebenen-übergreifende Datenverwaltung über den gesamten Aufbewahrungszeitraum, Datensicherung und -aufbewahrung vornehmen. Gleichzeitig geht eine verringerte Beeinträchtigung der Produktions-Server durch externe Katalogisierung mit Simpana einher. Externes Data-Mining für Microsoft »Exchange« ist ebenfalls implementiert. Durch die in die Software-Suite integrierte Deduplizierung kommt es zu einer Senkung der Speicherkosten. Administratoren wird eine einfache Speicher- und Bandspeicherebenen-übergreifende Wiederherstellung von virtuellen Maschinen, Anwendungen und Daten ermöglicht. Dazu kommt noch eine umfassende Kontrolle von Ressourcen-Auslastung und -nutzung über eine zentrale Konsole zur fundierten Entscheidungsfindung. Die Commvault Virtualisierungslösung unterstützt VMware, Microsoft Hyper-V und Citrix »Xen«. Der unique Ansatz Die Simpana-Suite bietet Informationsmanagement sowohl für physikalische als auch virtuelle Umgebungen und bis in die Cloud. Das nahtlose Zusammenspiel der Module wird gewährleistet, da diese auf einer einheitlichen Technologie-Plattform (Common Platform) basieren. Dieser unique Ansatz bringt Synergie-Effekte sowohl aus wirtschaftlicher als auch technologischer Sicht mit sich. So werden beispielsweise die Daten mit Hilfe des Suchmoduls zu Informationen, die jeder Anwender gemäß seiner Zugriffsrechte einfach selbst suchen kann. Dies dient sowohl betrieblichen Vereinfachungen und Anforderungen als auch der Erfüllung von Compliance-Anforderungen. Denn gesicherte und archivierte Daten sind zwar vorhanden, aber ohne eine starke Suchfunktionalität können die gesuchten Informationen nicht einfach wiedergefunden werden. Durch die technologische Verknüpfung über die einheitliche Technologie-Plattform der Module entsteht im Einsatz ein maximaler Nutzen, der mit konventionellen Ansätzen nicht erreicht K werden kann. Weitere Informationen Commvault Systems GmbH Lessingstr. 11, 46149 Oberhausen Tel.: + 49 0208 468460 Fax: + 49 0208 4684679 www.commvault.de speicherguide.de Eine Publikation von speicherguide.de storage-magazin.de 16 Advertorial Einkaufsführer Storage Erst eine WAN-Optimierung sorgt für schnellere Replikation Was hat WAN-Optimierung mit Storage zu tun? WAN-Optimierung ist eine Disziplin der Netzwerkverantwortlichen. Dennoch hat Orchestra Service GmbH, ein Value-Add-Distributor für Backup- und Storage-Lösungen, seit Februar 2011 eine solche Lösung im Portfolio. Welche Verbindung besteht zwischen Storage und WAN-Optimierung? [ Johannes Bertele, Orchestra Service GmbH ] chen Paketkollisionen und Paketverluste, die ein erneutes Senden der Information erfordern. Weitere Einflussfaktoren sind die Latenz, also die Laufzeit eines Signals und die Bandbreite. Replikationsprotokolle reagieren empfindlich Die Replikationsprotokolle der bekannten Storage-Hersteller EMC, NetApp & Co. erfordern allesamt eine hohe Qualität der Verbindung zwischen den Storage- Grafik: Orchestra Zu einem wichtigen Instrument der Disaster-Recovery-Vorsorge gehört die Replikation der unternehmenskritischen Daten in ein entferntes Storage-System. Bei Ausfall des primären Systems stehen die Produktivdaten am Disaster-RecoveryStandort zur Verfügung. Der Datenverlust (RPO) und die Wiederanlaufzeit (RTO) kann je nach Anforderung auf ein Minimum reduziert werden. Die Verbindung zwischen zwei oder mehr Standorten wird über Datendirektverbindungen (DDV), MPLS oder InternetVPN realisiert. Datendirektverbindungen sind teure, dedizierte Verbindungen mit sehr hoher und vorhersagbarer Qualität. MPLS hingegen sind günstigere Verbindungen, deren Qualität wesentlich geringer und eingeschränkter prognostizierbar ist. In der Realität teilt man sich die Datenleitung mit anderen Teilnehmern. Die vielen konkurrierenden Anwendungen verursa- Der effektive Durchsatz verringert sich bereits bei 0,075% Paketverlustrate auf <5 MByte/s speicherguide.de storage-magazin.de Eine Publikation von speicherguide.de Oktober 2011 Einkaufsführer Storage Advertorial 17 Systemen. Hohe Transferraten von 60 GByte/Stunde über Datendirektverbindungen reduzieren sich bei MPLS-Verbindungen aber sehr schnell auf 2 bis 3 GByte/Stunde. Selbst ein Upgrade auf eine größere Bandbreite ist nicht zwangsläufig die richtige Antwort. Der effektive Durchsatz steigt meist nur gering an, und steht in keinem Verhältnis zu den zusätzlichen Kosten. Datendirektverbindungen scheiden wegen der immens hohen Kosten ebenfalls in den meisten Fällen aus. Geht es um die Optimierung des »effektiven« Durchsatzes über WAN-Verbindungen, lautet die eindeutige Antwort von Orchestra: WAN-Optimierung von Silver Peak Systems. Damit sind Unternehmen in der Lage, größere Datenmengen über MPLS-/Internet-VPN zu übertragen. Zusätzlich können Speicherumgebungen mit anderen Anwendungen zusammen ein WAN nutzen, und so die laufenden WAN-Kosten der Unternehmen drastisch senken – oftmals um über 50 Prozent. Die von Silver Peak verwendeten Optimierungstechniken werden alle in Echtzeit ausgeführt und arbeiten primär auf der Netzwerkebene (IP). Für alle Anwendungen und in jeder WAN-Umgebung sichert dies eine optimale Leistung und Durchsatz. Patentierte Technologie der Silver-Peak-Lösungen Folgende technische Komponenten werden von den Silver-Peak-Produkten mit VXOA-Architektur genutzt (VXOA = Virtual Acceleration Open Architecture), um die sichere und zuverlässige Beschleunigung aller Anwendungen eines Unternehmens zu ermöglichen: Network Acceleration (Netzwerkbeschleunigung) zur Unterdrückung der Auswirkung von Latenz auf die Anwendungen. Network Integrity (Netzwerkintegrität) zur Lösung von Problemen beim Verlust von Datenpaketen und zur Sicherung einer angemessenen QoS (Quality of Service). Network Memory (Netzwerkspeicher) zur Maximierung der Effizienz bei der Nutzung der Bandbreite. Einsatz von Silver Peak Mit seiner Secure Content Architecture sichert Silver Peak die Daten von Unter- Oktober 2011 Grafik: Orchestra Silver Peak – die erste Wahl Replikation profitiert von der Optimierung durch Silver Peak nehmen. Das Portfolio von Silver Peak umfasst die Modelle NX, VX und VRX. Alle Produkte sind zum Schutz lokaler Datenspeicher mit AES-Verschlüsselung ausgestattet und können auf Wunsch mit IPSec zur Sicherung der Daten im WAN ausgerüstet werden. Die NX-Geräte sind Appliances, die sich nahtlos in jedes Unternehmensnetzwerk einfügen lassen und die WAN-Kapazität von Mbit/s zu Gbit/s erhöhen. Die VXReihe ist die reine Softwarevariante. Sie bietet die gleichen Optimierungseigenschaften wie die NX-Geräte, aber auf virtueller Ebene. Leistungsstärkster Punkt-zu-Punkt-Durchsatz Silver Peaks VRX-Anwendungen sind virtuelle WAN-Optimierungsgeräte, die sich besonders für die Lösung von Problemen zwischen Rechenzentren eignen (wie etwa die Replizierung und Migration von Daten und die Wiederherstellung verlorengegangener Daten/Disaster Recovery). Sie bieten den leistungsstärksten Punktzu-Punkt-Durchsatz aller virtuellen WANOptimierungsanwendungen und sind nachweislich kompatibel mit allen führenden Speicherlösungen. Alle Systeme nutzen die jeweils gleichen Verfahren, um den Datentransfer zu beschleunigen. Die Deduplizierung, also das Herausfiltern redundanter Pakete, findet auf der IP-Ebene statt und nicht in der TCP-Schicht. Das ermöglicht die Komprimierung von Datenbeständen, die be- reits mithilfe anderer Tools für den Transport über WAN-Links optimiert wurden. Zeitkritischen Daten, wie Sprachpakete, profitieren von der Funktion NetworkIntegrity. Kostenfreie Variante Einfacher und schneller Weg in die WANOptimierung: Den vollen Funktionsumfang stellt Silver Peak auch mit der kostenfreien Freeware-Variante VX-Xpress zur Verfügung (www.vx-xpress.com). Die VX-Xpress steht ohne vorherige Registrierung zum Download zur Verfügung. Einzige Voraussetzung für den Betrieb ist die Installation der virtuellen Appliance auf »VMware vSphere«. Die Einsatzgebiete der Silver Peak Software und Hardware reicht über die Anbindung von Außenstellen bis hin zum Datentransfer zwischen großen Rechenzentren. Namhafte Unternehmen vertrauen bereits auf die Silver-Peak-Technologie. Dazu gehören unter anderem Google, Yahoo, Ebay, Facebook, Expedia, K Trend Micro, ARM und AT&T. Weitere Informationen Orchestra Service GmbH Zeppelinstraße 2 82205 Gilching Sales Hotline: +49 (0) 8105 - 370 370 Fax: +49 (0) 8105 - 370 100 E-Mail: info@orchestra.de www.orchestra.de speicherguide.de Eine Publikation von speicherguide.de speicherguide.de storage-magazin.de 18 Datenspeicherung Einkaufsführer Storage Storage-Erweiterung in 3D Die »Virtual Storage Platform« (VSP) von HDS unterstützt auch Systeme von Drittanbietern. Um auf alle Speicheranforderungen vorbereitet zu sein, benötigen Firmen eigentlich die eierlegende Wollmilchsau. Oder eben ein System, welches sich flexibel und auf verschiedenen Ebenen nach Bedarf und Belieben erweitern lässt. HDS bietet mit seiner VSP ein System, das nicht nur die eigenen Ressourcen nutzen kann. [ Ulrike Rieß ] Rechenzentren sind historisch gewachsen, das gilt vor allem im Speicherbereich. Durch Virtualisierungslösungen lässt sich die Server-Umgebung meist verhältnismäßig unproblematisch konsolidieren und danach besser nutzen. Die StorageEbene ist oft nicht ganz so einfach zusammenzufassen und besser auszulasten. Erst recht, nachdem bereits eine Servervirtualisierung stattgefunden hat. Dann werden die optimale Nutzung des Speichernetzwerks und die Planung für kommende Anforderungen zum Glücksspiel. Flexible und hoch skalierbare Systeme sind gefragt, die nicht nur einzelne Ressourcen verteilen können. Die »Virtual Storage Platform« (VSP) von Hitachi Data Systems ist so eine Lösung, die sich quasi durch »Anbauten« – auch von Drittanbietern – erweitern, optimieren und effizienter gestalten lässt. »Inseln sind eine tolle Sache, wenn man drauf leben darf, im Rechenzentrum sind sie hinderlich und verursachen nicht nur Flaschenhälse und somit Leistungseinbußen, sondern sind auch schwer zu verwalten«, weiß Dr. Georgios Rimikis, Manager Solutions Strategy bei Hitachi Data System. »Unternehmen benötigen Lösungen, die ihnen Raum zum Wachsen in jeder Dimension lassen, selbst wenn eine genaue Planung nicht mehr speicherguide.de möglich ist. Dabei soll er seine Speicher- storage-magazin.de umgebung von heute auf morgen anpassen können, ohne dabei den Betriebsablauf unterbrechen zu müssen. Wir glauben, dass die VSP ihm dabei die ideale Plattform bieten kann.« Skalieren in 3D: Für die hohe Flexibilität und die Effizienz der VSP sorgen die »Anbau«-Möglichkeiten bzw. die Erweiterungsoptionen, die sich dem EDV-Verantwortlichen bieten. Der Hersteller selbst nennt diesen Ansatz 3D-Skalierbarkeit, da die Expansion auf mehreren Ebenen erfolgt. Es wird dabei unterteilt in »Scale-up«, »Scale-out« und »Scale-Deep«. Scale-Up: Unter Scale-Up versteht der Hersteller das Hinzufügen von HardwareKomponenten innerhalb eines Chassis, zum Beispiel in Form von Festplatten, SSDs oder Cache um die Kapazität und Performance zu steigern. Dabei kann der Administrator quasi nach dem Lego-Prinzip vorgehen und Stein für Stein aufstapeln. Performance, Kapazität und HostVerbindungen lassen sich unabhängig voneinander aufstocken. Scale-Out: Beim Scale-out geht es um die erste externe Erweiterungsstufe in Form einer zweiten VSP, die sich natürlich auch von klein bis groß nach dem gleichen Prinzip aufbauen lässt. Insgesamt kann der IT-Manager auf diesem Wege die zweifache Leistung des Vorgängermodells »USP V« erreichen, unter ande- Eine Publikation von speicherguide.de Foto: Hitachi Data Systems Effizienter und skalierbarer Speicher rem mit 192 GByte/s aggregierter Bandbreite. Bei der Gesamtspeicherkapazität liegt das interne Maximum bei 255 PByte. Zum Einsatz können bis zu 2.048 SASDrives (2,5 Zoll) kommen oder 1.280 SATA-Medien (3,5 Zoll). Letztere bieten die maximale Ausbaustufe von 2,5 PByte, SAS kommt auf 1,2 PByte. Darüber hinaus kann der IT-Manager bis zu 256 FlashSpeicher verbauen, die die Performance nach oben treiben. Für die Anbindung stehen bis zu 192 8-Gbit/s-FC-Ports, 192 8-Gbit/s-FICON-Interfaces, 88 FCoESchnittstellen mit zehn Gbit/s zur Verfügung. Damit erhalten Unternehmen fast das Doppelte aller maximalen Leistungsstufen einer VSP. Dabei sind beide Systeme zu einem Grid verbunden, welches sich als eine Maschine darstellt. Dies wird durch die »Hierarchische Star Network Crossbar Switch«-Architektur ermöglicht. Diese Lösung umfasst bis zu acht virtuelle Storage-Directors, verfügt über ein TByte im globalen Cache und erlaubt jedem Host-Port direkten Zugriff auf jede im Backend liegende RAID-Gruppe. Diese Skalierung ist online, ohne Unterbrechung möglich und erlaubt flexible Anpassung an schnell steigende Anforderungen im IT-Umfeld. Scale-Deep: Scale-Deep ist die dritte Variante der Speichererweiterung. Dabei geht es um eine optimierte Version der Storage-Virtualisierung. Hier können nun externe Speicher bzw. Storage anderer Oktober 2011 Einkaufsführer Storage Hersteller in den Pool einbezogen und verteilt werden. Mit der »Universal Volume Manager«-Software können diese dann konfiguriert, verwaltet und so genutzt werden als seien sie interne VSPVolumes. Die Storage-Management- und Replikations-Tools kann der IT-Manager wie gewohnt nutzen, unabhängig davon ob die Daten auf dem VSP- oder externen Speicher liegen. Die Einbindung ist transparent und umfasst alle gängigen Anbieter unter anderem Systeme von EMC, IBM oder Sun. Dem Administrator ist es möglich, beispielsweise Tiered-Storage über die Grenzen des eigenen Systems hinweg zu nutzen, selbst wenn externe Storage-Arrays bereits etwas älter sein sollten. Ebenso lassen sich alle Funktionalitäten und Virtualisierungsoptionen über die üblichen Limitierungen des einzelnen Speichers hinaus nutzen. Das erleichtert zum Beispiel anstehende Datenmigrationen und auch Ausfallzeiten fallen weg. Zudem kann Disaster-Recovery für den gesamten Storage-Pool mittels »Universal Replicator« zum Einsatz kommen. Darüber hinaus ist bei ScaleDeep die Mandantenfähigkeit durch virtuelle Ports, Cache-Partitionierung, Zugriffskontrollen für dedizierte Res source-Gruppen und Volume-OwnerManagement gewährleistet. Gemacht für Virtualisierung Der Hersteller hat zur optimalen Einbindung virtueller Welten das »vStorage-API for Array-Integration«, kurz VAAI, integriert. Auch hier bricht HDS die Grenzen des eigenen Speichersystems auf und kann das VAAI ebenso auf Maschinen von Fremdanbietern nutzen. Dadurch kann die VSP auf mehr als 100 virtualisierte Multivendor-Storage Arrays erweitert und als End-to-End-Virtualisierungslösung verwendet werden. In Verbindung mit der 3D-Skalierung lässt sich direkter Nutzen aus dem VAAI ziehen, so zum Beispiel sind umständliche Migrationen von virtuellen Maschinen nicht notwendig. Darüber hinaus erhöht sich die Dichte virtueller Maschinen. Des Weiteren steht die Funktion »Full Copy« zur Verfügung. Diese erlaubt den Speichersystemen, komplette Datenklone innerhalb des Systems zu erstellen. Dies wiederum bringt zudem eine Beschleunigung des VirtualMachine-Clonings sowie des Storage»vMotion«. Block-Zeroing oder auch »Write Same« sollen eine zügigere Bereitstellung neuer virtueller Maschinen ge- Oktober 2011 Datenspeicherung währleisten. Hier verzeichnet das System keine Zero-Blöcke mehr. Das heißt, gelöschte Blöcke werden sofort entfernt, was wiederum die Effizienz der Speichernutzung erhöht. Der Hersteller nutzt zudem ein Tool namens »Hardware Assisted Locking« (SCSI Reservation Lock), das auftretende SCSI-Reservierungskonflikte eliminiert und dadurch die Datensicherung, die Performance sowie die Dichte virtueller Maschinen optimieren soll. »Mit der übergreifenden Integration von VAAI und den darunter angesiedelten Funktionen, die sich auch auf Drittsystemen nutzen lassen, wollen wir den Umstieg auf virtuelle Umgebungen erleichtern«, erklärt HDS-Manager Rimikis. »Viele Unternehmen scheuen Virtualisierungslösungen, weil sie meist mit viel manuellem Aufwand verbunden sind und dann oft höhere Anforderungen an den Speicher stellen, die im Vorfeld kaum absehbar sind. Wir möchten hier den Weg in VMware- und Cloud-Umgebungen ebnen.« Alles auf Dynamisch Die VSP bringt nicht nur Skalierbarkeit auf drei Ebenen, sondern auch einen großen Funktionsumfang mit, der sich auch jenseits der Systemgrenzen nutzen lassen. Das steigert die Flexibilität und Effizienz innerhalb des gesamten Speicherpools. Zu den wichtigen Funktionen gehören das »Dynamic Provisioning« und das »Dynamic Tiering«. Dynamic-Provisioning entspricht dem Thin-Provisioning und teilt realen Speicherplatz erst dann zu, wenn eine Anwendung Daten auf die Platte schreibt, selbst wenn ihr virtuell mehr zugesprochen wurde. Damit wird kein Foto: Hitachi Data Systems unnötiger Speicherplatz verschwendet. Ebenso ist es möglich, die Daten über alle LUNs im Pool zu verteilen (stripen) und damit High-Performance-Volumes zu schaffen. Diese Methode eliminiert so genannte »Hot Spots« und erlaubt Parallelzugriffe auf Festplatten, was insgesamt für eine optimierte Performance des Systems sorgt. Das Tiering lässt sich auch über den gesamten Speicher-Pool anwenden. Dabei verschiebt das System wenig genutzte Daten, die zuvor noch die Leistung 19 einer SSD benötigten und nun geringe Zugriffszahlen verzeichnen auf günstigere Speicher-Medien, beispielsweise Nearline-SAS- oder SATA-Medien. Dies erfolgt automatisch und nach vorher gesetzten Parametern. Nicht alle Daten eines Volumes werden auf dieser Art verschoben, sondern nur die betroffenen Pages. Weitere wichtige Funktionen sind die virtuellen Ports und die Datenverschlüsselung. Die so genannten Virtual Ports erlauben es, einen FC-Port als mehrere Schnittstellen darzustellen mit entsprechendem Zoning. Der Administrator kann so unterschiedlichen virtuellen Maschinen jeweils einen eigenen Port zuweisen, obwohl sie einen gemeinsamen nutzen. Die Datenverschlüsselung soll höhere Sicherheit der Daten ohne Leistungseinbußen oder Latenzen garantieren. Um die Mandantenfähigkeit zu unter stützen, lassen sich darüber hinaus logische Partitionen anlegen, die nichts voneinander wissen. So erhalten beispielsweise 32 Partitionen ihre dedizierten Laufwerke, Netzwerkverbindungen und Cache. Damit hat der IT-Manager konsolidiert und bewahrt doch die eigenständige Überprüfung der Partitionen. Die benötigten Ressourcen pro Partition sind individuell zuteilbar. Ein Storage-Modell – viele Optionen HDS will dem Anwender mit der VSP so viele Optionen und Freiheiten wie möglich bei der Verwaltung und der Erweiterung seines Speichers geben, ohne gleich mehr Boxen und mehr Aufwand fürchten zu müssen. Besonderer Aspekt dabei ist die Einbeziehung von Fremdspeicher, was heterogen gewachsenen Umgebungen gut gefallen wird, denn alle beschriebenen Funktionalitäten lassen sich über die Grenzen der VSP hinaus ausdehnen. Und nicht nur das: sie sind auch in z/OS-Umgebungen projiezierbar. »Wir geben Unternehmen die größtmögliche Wahl und Flexibilität, die Speicherumgebung immer je nach Bedarf anpassen und optimal nutzen zu können«, sagt HDS-Experte Rimikis. »Zum Beispiel bieten wir die Flexibilität jeglichen Filer bis hin zum Mainframe anzuschließen. Der IT-Manager kann klein anfangen und immer wieder neu entscheiden, auf welcher Ebene er skalieren will bzw. muss. Somit geben wir ihm zukunftstaugliche Optionen für die Zukunft schon heute mit speicherguide.de K auf den Weg.« Eine Publikation von speicherguide.de storage-magazin.de 20 Datenspeicherung Einkaufsführer Storage Schnelle RAID-Systeme mit hohem Funktionsumfang Daten so sicher wie im Safe RAID-Systeme sollen zahlreiche Anforderungen erfüllen: in virtuellen Umgebungen einsetzbar sein, hohe Performance gewährleisten, Daten- und Systemsicherheit garantieren sowie über umfassende Funktionen wie Replikation, Snapshots, Dedup oder Clusterfähigkeit verfügen. RAID-Systeme, die im SAN-Verbund zum Einsatz kommen sollen, müssen heute eine Vielzahl an Anforderungen erfüllen. Es kommt nicht mehr nur auf die Hardware-Stabilität und Endkapazität an, sondern vielmehr auf Skalierbarkeit, Ausfallsicherheit, Performance und Funktionalität. Darüber hinaus ist ein gutes PreisLeistungsverhältnis ein überzeugender Faktor. Modelle, die sich untereinander verbinden lassen, ohne dabei auf Skalierbarkeit und Funktionen verzichten zu müssen, stehen bei den EDV-Verantwortlichen hoch im Kurs. Gesucht sind Systeme, die es erlauben, SAN-Umgebungen flexibler, sicherer und effizienter zu gestalten. Neben aller Funktionalität und Leistungsstärke benötigen IT-Manager auch Lösungen, die Innovationsschutz sowie technische Zuverlässigkeit gewährleisten. Für die Eternus-DX-Familie spricht ein effizientes Daten-Management sowie das Preis-Leistungs-Verhältnis. Datensicherheit auf allen Ebenen »Unsere »ETERNUS DX S2«-Reihe bietet beispielsweise eine Kombination aus leistungsfähiger Architektur, flexiblem Design, Datensicherheit und Qualität der Mainframe-Klasse«, sagt Robert Guzek, Produkt Marketing Manager Eternus bei Fujitsu. »Zusammen mit einer nahtlos ineinander greifenden Produktfamilie sowie einer langfristigen Produktstrategie erhält der jeweilige IT-Manager Systeme mit hohem Nutzwert.« Die Datensicherheit ist auf verschiedenen Ebenen gewährleistet. Mittels Hochverfügbarkeits-Cluster und Speichervirtualisierung stehen die Daten immer im speicherguide.de Zugriff und können selbst bei einem Aus- storage-magazin.de Foto: Fujitsu [ Ulrike Rieß ] fall schnell wiederhergestellt werden. Einen weiter gehenden Datenschutz kann es durch »Remote Equivalent Copy« (REC), servergesteuerte Replikation sowie Backup auf Festplatte oder Band und Disaster-Recovery-Funktionen erreichen. Logische oder menschliche Fehler und Risiken durch Diebstahl von Daten lassen sich mit Snapshots, Clones und Datenverschlüsselung vermeiden. Mit Funktionen wie RAID-Level-Schutz, RAID-Migration, Data-Block-Guard und Redundant Copy auf SMART-Basis kann der Nutzer seine Eine Publikation von speicherguide.de Datenintegrität absichern. Nicht zuletzt fangen die Systeme auch einen Ausfall physischer Komponenten ab. Dafür verbaut der Hersteller redundante Komponenten (kein »Single Point of Failure«), stellt unterbrechungsfreie Firmware-Upgrades bereit und integriert Features wie Cache-Protector, Hot-Spare und Multipathing. Damit erhält der EDV-Verant wortliche Schutz für seine Geschäfts kontinuität, seine Geschäftsdaten, die Datenintegrität, seine physischen Systeme und erhöhten Datenschutz. Oktober 2011 Einkaufsführer Storage Datenspeicherung 21 Für Einsteiger, die nicht auf Performance verzichten wollen, ist die Eternus DX60 S2 mit SAS-Platten konzipiert. Maximale Performance zu optimalem Preis In Benchmark-Tests konnten die EternusModelle ihre Performance unter Beweis stellen, die gerade beim Einsatz in virtualisierten Umgebungen oder bei transaktionsreichen Anwendungen gefragt ist. Insbesondere das Midrange-System »ETERNUS DX440 S2« setzte sich gegen die Wettbewerber beim SPC-1-I/O-Test durch. Mit 97.498 I/O/s bei hundertprozentiger Arbeitslast erzielte es bis zu 30 Prozent mehr Leistung als mit getestete Systeme. Ebenso wies das DX440 mit nur fünf Millisekunden Antwortzeit die geringsten Reaktionszeiten auf. Da das Array über das gleiche Software-Paket und die gleichen Hardware-Funktionen wie die Enterprise-Systeme verfügt, offeriert es nicht nur hohe Performance-Werte, sondern auch hohe Funktionalität, ohne eine Investition auf Enterprise-Level zu erfordern. Auch dies ließ sich im Test nachweisen: Das DX440 weist mit diesen Leistungswerten das beste Preis-Leistungsverhältnis auf. Mit 5,5 US-Dollar pro I/O ist es in etwa einen Dollar günstiger als die Konkurrenz. Darüber hinaus konnte auch das Einstiegssystem »ETERNUS DX80 S2« im SPC-2-Test als leistungsstärkstes System hervorgehen. Es erhielt 2.685,50 Wertepunkte auf der SPC-2 MBPS-Skala und schnitt ebenso als Array mit gutem PreisLeistungsverhältnis ab. »Wir haben uns diesem Test gestellt, um zu zeigen, dass wir sowohl Leistungsabfragen als auch Budget-Anforderungen bedienen können«, erklärt Guzek. »Oft kann der IT-Manager den Spagat zwischen technischen Bedingungen und Budget-Vorgaben nicht machen. Eternus- Oktober 2011 Arrays schaffen hier bereits für zwei Busi ness-Segmente Abhilfe und bringen einen echten Nutzwert ins Rechenzentrum.« Investitionsschutz durch einheitliche Speicherarchitektur Nicht nur die Investitionssumme ist bei der Wahl eines RAID-Systems entscheidend. Integrations- und Skalierfähigkeit zählen ebenso zu wichtigen Kriterien hinsichtlich eines Investitionsschutzes. Kein Unternehmen möchte ein Array nur zwei Jahre nutzen und später Inkomaptibilitäten oder Leistungseinbußen feststellen. Fujitsu hat hierfür die »Data-in-Place«Technologie entwickelt. Diese ermöglicht es, nach einem System-Upgrade alle vorhandenen Festplatten mit den dazugehörenden Daten weiter zu verwenden. Der IT-Verantwortliche muss keine TBytes an Daten manuell verschieben, es erfolgt lediglich ein Austausch des Storage-Kopfes. Da die Informationen auf den Medien erhalten bleiben, entfällt eine Migration. Durch dieses Verfahren lässt sich zum Beispiel eine Eternus DX 80 S2 unkompliziert auf eine DX440 S2 hochrüsten. Diese Lösung ist zudem durch das Hinzufügen weiterer Platten skalierbar, Verbindungsprobleme können durch austauschbare oder veränderbare Schnittstellen umgangen werden. »Durch diese Lösung spart der Anwender nicht nur Geld, sondern auch Zeit, Administrationsaufwand und Platz«, erläutert Storage-Fachmann Guzek. »Statt einfach weitere Systeme ins RZ zu stellen, implementiert man die nächste Generation. Durch Data-in-place geht es sehr schnell, da eine Migration nicht nötig ist und die damit verbundene Ausfallzeit eliminiert wird.« Foto: Fujitsu Replikation über alle Modelle und Standorte hinweg Unternehmen, die hohe Ausfallsicherheit benötigen, greifen auf Zweitstandorte und eine Replikation der Daten auf die dortigen Systeme zurück. Die EternusArrays boten bislang eine solche Replikation, genannt Remote Copy, nur für baugleiche Modelle an. Durch die erweiterte Replikationsfähigkeit zwischen unterschiedlichen Modellen lassen sich nun beispielsweise Midrange- und EnterpriseSysteme gemeinsam nutzen. Das gibt dem IT-Manager mehr Optionen für seine Backup-Konfigurationen. »Das Unternehmen sucht den größtmöglichen Nutzwert in der IT, also auch bei den Speichersystemen«, meint Guzek. »Funktionen wie Replikation übergreifend nutzen zu können, macht die Nutzung bestehender Hardware flexibler. Darüber hinaus verfügt die Eternus-Reihe über weitere Funktionen, die die Speichereffizienz steigern. Dazu gehören Storage-Tiering, Thin-Provisioning, Datenverschlüsselung und Deduplizierung.« Umweltfreundlich auf ganzer Linie Die integrierte MAID-Technologie erlaubt es, Festplatten innerhalb der EternusSysteme, auf die kein Zugriff erfolgt, gezielt herunter zu fahren und so Strom zu sparen. Die Reduzierung der Laufwerksdrehzahl kann dabei zeitlich geplant werden. So ließe sich zum Beispiel konfigurieren, dass, wenn innerhalb von mindestens zehn Minuten kein Zugriff stattfindet, die Laufwerksdrehzahl reduziert wird. Wird dann wieder auf diesen Plattenbereich zugegriffen, beschleunigt sich die Drehzahl innerhalb einer Minute. Bei steigenden Strompreisen, erzielen Firmen hier durchaus Einsparungspotenziale. Für jeden Einsatz das passende System Die Eternus-DX-Serie besteht aus sieben Modellen, die für unterschiedliche Bereiche konzipiert sind. Die DX60 sowie die DX80/DX90 sind für Einsteigerkonfigurationen geeignet, bei denen der IT-Manager mit kleineren Kapazitäten beginnt, aber auch Raum für Wachstum und vor allem Funktionsvielfalt hat. Im MidrangeSegment sind die DX410 und die DX440 angesiedelt, die vor allem mit hoher Performance bestechen. Die Modelle DX8400 und DX8700 wiederum bedienen die Anforderungen der Enterprisespeicherguide.de K Umgebungen. Eine Publikation von speicherguide.de storage-magazin.de 22 Virtualisierung Einkaufsführer Storage Engpässe in virtuellen Storage-Umgebungen verhindern Mit Speicher virtualisierte Welten bändigen Das richtige Speichersystem wird auch den unplanbaren und sich verändernden Anforderungen virtueller Welten gerecht. Der Druck von Wartungs- und BackupFenstern lässt sich durch flexible Lösungen wie die Lefthand-Serie von HP verringern. Mit dem entsprechendem Nutzen an Flexibilität, Sicherheit und Skalierbarkeit. Um flächendeckend Kosten zu senken und Computerkraft zu konsolidieren, virtualisiert fast jedes Unternehmen seine ServerUmgebung. Allerdings kann ein Großteil des Nutzens der Virtualisierung durch unpassenden Speicher wieder eingebüßt werden. Die Speicherlösung muss gemeinsam nutzbar sein und zudem einen hohen Funktionsumfang aufweisen, damit Flexibilität und Kosteneinsparung gewahrt bleiben. Darüber hinaus ist der IT-Manager oft nicht in der Lage, das Wachstum und die Entwicklung in seiner virtualisierten Welt genau vorherzusehen, was eine Planung im Speicherbereich erheblich erschwert. Mit iSCSI-Lösungen wie den »LeftHand P4000 SANs« von HewlettPackard lassen sich virtuelle Server-Umgebungen mit allen Vorteilen nutzen. »Viele Unternehmen erkennen oft nicht, dass eine Virtualisierungslösung Planung bis hin zum Speicher erfordert«, erklärt Guido Klenner, Business Unit Manager Online-Storage bei HP. »Mögliche Einsparungen gehen durch ineffizienten Speicher verloren. Mit IP-SANs überwinden Unternehmen die Kostenund Management-Einschränkungen herkömmlicher SANs.« Die Hürden beim Kostensparen Die Probleme für SAN-Lösungen in einer virtualisierten Umgebung sind vielfältig. speicherguide.de Kann das System Kapazität nicht flexibel storage-magazin.de Foto: Hewlett-Packard [ Ulrike Rieß ] HP: »Eine Virtualisierungslösung muss bis hin zum Speicher geplant werden.« verteilen, so nimmt ein Volume von 100 GByte eben genau 100 GByte ein, obwohl es vielleicht nur die Hälfte des Platzes wirklich beansprucht. Des Weiteren erzeugt die Sicherung vieler virtueller Maschinen natürlich auch viel mehr Daten als zuvor, so beispielsweise Snapshots. Somit kann sich die benötigte Speicherkapazität schnell mal verdoppeln. Unternehmen, die standortübergreifend arbeiten, müssen zudem Lösungen für synchrone Replikation und somit ein weiteres System einsetzen. Solche Lösungen sind meist teuer und komplex. Häufig müssen mehrere Datenkopien vorgehalten werden, was die Kapazitätsanforderung nach oben schnellen lässt. Nicht zuletzt macht es das Budget vielen Firmen schwer, genau zu planen. Häufig fehlt das nötige Investitionskapital für Lösungen mit Hochverfügbarkeits- und DisasterRecovery-Funktion (DR) oder auch für erweitertes Management. Die Balance zwischen Budget, erforderlichem SAN und letztlich angeschaffter Lösung ist nur schwer zu halten. Eine Publikation von speicherguide.de Servervirtualisierung braucht Speichereffizienz Thin-Provisioning und Clustering sind die Zauberworte, die Speicher richtig effizient werden lassen. Die P4000-SANs integrieren beide Funktionalitäten und bieten so eine Steigerung der Kapazitätsauslastung. Thin-Provisioning ist eine integrierte Funktion in jedem P4000-System. Der Speicher-Cluster verwaltet sämtliche Speicherzuordnungen in einem logischen Volume. Speicherbereiche werden nur dann zugeordnet, wenn das System tatsächlich Daten auf das Volume schreibt. Dies verschwendet nicht unnötigen Storage-Platz, der letztlich nicht genutzt wird. In Kombination mit Snapshots erhöht sich die Speicherauslastung erneut, da auch hier nur der real benötigte Platz belegt ist. »Mit einem Thin-Provisioning-Ansatz kann man die Anforderungen virtueller Welten erfüllen, ohne gleich zusätzlich Unmengen an Speicherkapazität ins Rechenzentrum stellen zu müssen«, sagt Storage-Experte Klenner. »Unseren Berechnungen nach erreichen Unternehmen an einem Standort 33 Prozent mehr Kapazitätsauslastung gegenüber sonstigen SANs. Bei einer Hochverfügbarkeitskonfiguration lässt sich dieser Wert zusätzlich verdoppeln.« Abgesichert mit Hochverfügbarkeit und Disaster-Recovery Firmen, die Servervirtualisierung einsetzen, möchten diese auch besonders gegen Ausfälle absichern. Dafür stehen Oktober 2011 Einkaufsführer Storage Horizontal skalieren heißt in alle Richtungen wachsen Servervirtualisierung bringt vor allem ein höheres Aufkommen an I/Os mit sich, was Speichersystemen eine höhere Leistung bzw. eine skalierbare Leistung abverlangt. Oft läuft die gesamte Leistungsabfrage bei zwei Controllern auf, die alle Zugriffe auf den Festplattenspeicher koordinieren, was schnell zum Engpass wird. Bei den meisten Speicherangeboten stellen die Neukonfiguration von RAID-Gruppen und Zonen, ein Controller-Upgrade oder der Kauf eines neuen Speichersystems die einzigen Möglichkeiten dar, die Bandbreite zu skalieren. Die P4000-Systeme verfügen über eine horizontal skalierbare Architektur. Jeder hinzugefügte Knoten bietet Controller-Leistung und Kapazität und kann so schnell steigende Anforderungen bedienen, sei es nun Speicherplatz oder Performance. Oktober 2011 HPs skalierbarer SAN-Speicher der P4000-Serie unterstützt Thin-Provisioning und Clustering. Foto: Hewlett-Packard Hochverfügbarkeits- und DR-Szenarien zur Verfügung, die sich mit der P4000Familie umsetzen lassen. Allerdings erhöht sich der Nutzen einer solchen Konfiguration durch die Virtualisierung, denn ohne administratorischen Aufwand lässt sich die Virtualisierungs-Software nach Serverausfällen wiederherstellen, indem die virtuellen Maschinen automatisch auf alternativen Servern neu gestartet werden. Mit Remote-Copys der logischen Volumes ist sogar eine Wiederherstellung virtueller Maschinen an einem anderen Standort möglich. HPs P4000-Systeme verfügen über synchrone und asynchrone Replikationsfunktionen und gewährleisten eine hohe Verfügbarkeit, selbst bei einem Ausfall von Festplatten, Controller, Speicherknoten, Strom, Netzwerk oder des ganzen Standorts. »Wir bieten zudem auch automatischen Failover und Failback, was nicht selbstverständlich ist«, erläutert HP-Manager Klenner. »Bei den meisten Lösungen muss der EDV-Verantwortliche ein Failover eines Volumes händisch bearbeiten, was den Nutzen des automatischen Failover der virtuellen Maschine zunichtemacht. Ähnlich steht es bei dem Failback, bei dem manuell eine Synchronisierung der Volumes erforderlich ist. Mit der Funktionalität, die wir aus der SAN/ iQ-Software erhalten, kann die P4000Serie diese Szenarien automatisch ablaufen lassen. Das spart dem Unternehmen Zeit bzw. Aufwand und garantiert Verfügbarkeit.« Virtualisierung Im Verbund leistungsstark: das Lefthand-Cluster »Die Speicherknoten unserer iSCSI-SANSerie P4000 lassen sich auch zu einem Cluster zusammenschließen, was noch einmal die Hochverfügbarkeit steigert«, sagt HP-Manager Klenner. »Diese Knoten können in Speicher-Pools zusammengefasst werden, deren Leistung und Kapazität dann sofort jedem Volume zur Verfügung stehen.« Jeder einzelne Knoten stellt Netzwerkbreite, Controller-Leistung, Cache und Festplattenspeicher bereit. Dadurch wächst das Gesamtleistungsvermö gen des Cluster auf all diesen Ebenen und nicht nur in Kapazität oder I/O- Performance. Fügt der IT-Manager einen weiteren Knoten hinzu, verteilt das SAN automatisch die neu hinzugewonnen Ressourcen, ohne dabei den laufenden Betrieb zu unterbrechen. Die logischen Volume-Blöcke werden im gesamten Speicher-Cluster verteilt und können dann auf die zahlreichen Knoten zugreifen, die sich als ein Array darstellen. Zentrales Management bringt Effizienz und Flexibilität Das Leistungsmanagementsystem des P4000-SAN soll eine intuitive Überwachung der SAN-Leistung gestatten, da es Leistungsinformationen zu jedem Anwendungsserver bzw. jeder virtuellen Maschine, jedem logischen Volume, Snapshot, Speicher, Cluster und Speichersystem bereitstellt. Das System verfügt über eine intuitive Schnittstelle, über die sich mögliche Leistungsprobleme identifizieren und diagnostizieren lassen. »Das Management ist so wichtig wie die Leistungsfähigkeit des Systems«, sagt Klenner. »Das zentrale und einheitliche Management verwendet iSCSI-Standardprotokolle, LAN-Standardtechnologie und ein GUI, damit die Effizienz beim Administrieren des P4000-SANs nicht ver- 23 loren gehen.« Da sich das SAN transparent als ein Array darstellt, können auch alle Funktionen transparent ausgerollt werden. Dynamic-Tiering, Datenmigration, Snapshots, das Austauschen eines Servers oder das nachträgliche Ändern von Thin-Provisioning- oder anderen Speicherattributen ist damit zentral möglich. Das Hinzufügen neuer SANs oder das Verschieben von Volumes zwischen SANs erfolgt über eine einzige Managementschnittstelle. Wartungs- oder betriebsbedingte Ausfallzeiten werden so auf ein Minimum reduziert. Eine Basis, viele Lösungen Das P4000-SAN kann in vielen Szenarien zum Einsatz kommen. Dafür hat der Hersteller sechs unterschiedliche Modelle konzipiert, die jeweils auf dedizierte Aufgaben abgestimmt wurden, aber rein technisch über das gleiche hohe Leistungsportfolio verfügen und darüber hinaus untereinander beliebig kombinierbar sind. So bieten die »P4300 G2 7,2 TB SAS Starter SAN«-Lösung und das »P4300 G2 16 TB MDL SAS Starter SAN« optimale Einstiegssysteme für kleinere Virtualisierungsprojekte oder Konsolidierungsvorhaben für Windows- und Linux-Server. Sie offerieren die Leistung und Funktionen, die für die Vereinfachung des Speichers und die unterbrechungsfreie Erweiterung der Umgebung erforderlich sind. Das »P4500 G2 14,4 TB SAS Virtualization SAN« verbessert den verteilt genutzten Speicher und gewährleistet Hochverfügbarkeit, Skalierbarkeit und unterbrechungsfreie Konfigurationsänderungen. Die Multi-Site-Lösung »P4500 G2 28,8 TB SAS« soll für Datenverfügbarkeit bei einem Standortausfall sorgen und integriert automatische Datensicherung mit synchroner Replikation gepaart mit leistungsstarken SAS-Medien. Für hohe Datenvolumen und Skalierbarkeit eignet sich das »P4500 G2 120 TB MDL SAS SAN«. Große Client-Virtualisierungs-Implementierungen, Speicherflexibilität sowie hohe Speicherdichte und Kosteneffizienz lassen sich mit der »P4800 G2 63 TB SAS BladeSystem SAN-Lösung« bedienen. »Das Portfolio veranschaulicht, dass wir jegliche Szenarien bedienen können«, bekräftigt Klenner. »Dabei kann der Anwender, egal für welches System er sich entscheidet, zusätzlich erweitern und muss sich somit auch vor dem Unplanbaren einer virtuellen Umgebung nicht fürchten.« speicherguide.de K Eine Publikation von speicherguide.de storage-magazin.de 24 Datenspeicherung Einkaufsführer Storage Marktübersicht NAS-Server Speicherbedarf analysieren und Engpässe vermeiden Moderne NAS-Systeme sind heute schnell, relativ einfach skalierbar und integrieren sowohl Datenmanagement als auch Monitoring-Funktionen. Hinzukommen Sicherheits-Features wie Snapshots, Replikation sowie Disaster-Recovery-Optionen. Beim Kauf gilt es Engpässe zu vermeiden und die Produktgrenzen zu kennen. [ Karl Fröhlich ] Für Wolfgang Bauer, Technischer Leiter bei EUROstor gibt es lediglich zwei Kriterien, die ein NAS neben einer guten Performance zu leisten hat: »Einmal sollte es sich sowohl in Linux- als auch in Windows-Welten einbinden lassen. Dies bedeutet aber, dass entsprechende Dienste wie Active-Directory unterstützt sein müssen. Andernfalls wären Firmen mit einem normalen Fileserver auf Windows oder Linux besser bedient.« Zweitens sollte es eine übersichtliche und schnelle Management-Oberfläche besitzen, welche auch bei sehr vielen Usern die Verwaltung der Zugriffsrechte überschaubar und einfach gestaltet. »Ein gutes NAS System zeichnet sich zudem durch eine hohe Skalierbarkeit der Kapazität in TByte bzw. PByte aus sowie in der Anzahl von Dateien oder Objekten pro Verzeichnis«, ergänzt Uwe Angst, NAS Business Manager bei Hitachi Data Systems. »Hinzu kommt die Skalierbarkeit für Scale-out (Anzahl der Nodes pro Cluster) und Scale-up (Perfor- mance pro Node-Modell) und Scale-deep (Anzahl der virtualisierbaren Systeme hinter dem NAS-System). Hochwertige Systeme bieten eine hohe Ausfallsicherheit durch 99,999 Prozent Uptime und der Möglichkeit, einem Cluster online weitere Nodes hinzuzufügen.« Auch sollten IT-Manager auf einen niedrigen Energieverbrauch achten, gemessen in Euro pro IOPs und im physikalischen Footprint im Rechenzentrum. Leistung: Engpässe vermeiden Um Geschwindigkeits-Engpässe weitgehend auszuschließen, gilt es im Vorfeld den eigenen Bedarf zu kennen und auf die Ausstattung zu achten. Im reinen NAS Betrieb spielen CPU-Leistung und Speicherbestückung im Prinzip eine eher untergeordnete Rolle – sofern Aufgaben wie die RAID-Verwaltung von einem separaten Prozessor, sprich einem Hardware-RAID, erfüllt werden. Muss die System-CPU, außer für das Betriebssystem, auch noch weitere Aufgaben wie unter anderem eben die RAID-Verwaltung übernehmen, geraten Systeme mit zu gering ausgelegten Prozessoren sehr schnell an ihre Leistungsgrenze, was sich dann negativ auf Antwortzeiten und Datenübertragungsraten auswirkt. Hin zukommt, dass heute viele Systeme Unified-Storage-Funktionen wie SoftwareiSCSI-Targets anbieten. Eine Aufgabe, die ebenfalls der System-Prozessor zu verarbeiten hat. Hier wirkt sich die Investition in eine etwas üppigere Speicherausstattung durchaus positiv aus. In der Praxis sollte ein Business-NAS daher Minimum mit einem Dual-Core-Xeon-Prozessoren und schnellem DDR3-Speicher bestückt sein. Mit der Option bei Bedarf eine zweite CPU nachrüsten und den Arbeitsspeicher erweitern zu können. NAS: vorrangige Kaufkriterien »Leider ist heute oftmals zunächst der Anschaffungspreis das Kriterium«, bemängelt Martin Huber, Geschäftsführer bei N-Tec, das Kaufverhalten vieler IT-Einkäufer. »Dass zwischen einem SoHoProdukt und einem Midrange- oder Enterprise-NAS in der Regel außer dem Preis auch ein gewaltiger Unterschied in der Weitere Informationen Ausführliche Version des Artikels auf speicherguide.de www.speicherguide.de/Datenspeicherung/NAS/tabid/205/articleType/ArticleView/articleId/14529/default.aspx NAS-Systeme auf speicherguide.de www.speicherguide.de/Datenspeicherung/NAS/tabid/205/Default.aspx Marktübersicht NAS-Server www.speicherguide.de/Loesungen/Marktuebersichten/tabid/228/Default.aspx?mue=4 speicherguide.de storage-magazin.de Eine Publikation von speicherguide.de Oktober 2011 SIMPLE STORAGE Introducing EMC® VNX™. So simple a fifth grader can manage it. EMC2, EMC, and the EMC logo are registered trademarks or trademarks of EMC Corporation in the United States and other countries. © Copyright 2011 EMC Corporation. All rights reserved. 26 ??????????????? 890 Datenspeicherung Einkaufsführer Storage Storage Einkaufsführer Fortsetzung von Seite 8 Adressen Seite 26 Leistung besteht, merken Unternehmen oft erst, wenn das sehr preisgünstige Gerät schnell an seine Leistungsgrenzen stößt und die Daten nicht mehr in ausreichender Geschwindigkeit zur Verfügung gestellt werden können.« Grundsätzlich sollten sich Unternehmen vor dem Kauf bewusst machen, welche Aufgaben mit dem zu beschaffenden NAS erledigt werden sollen. Welche Anzahl an Benutzern ständig und regelmäßig auf dem System arbeiten und welche Datenmenge das Gerät auf län gere Sicht (ca. 3 - 5 Jahre) zu bewältigen haben wird? »Weiter spielen die schnelle Erweiterung der Kapazität (ohne Stillstandzeiten) und die Ansprüche an die Verfügbarkeit (Replikation, Spiegelung) ein wichtige Rolle«, erklärt Huber. »Auch die Möglichkeit zur Nachrüstung weiterer Schnittstellen für Einbindung in neue Infrastrukturen (10 GbE, FCoE) oder zur Steigerung der Netzwerkleistung sollte, zumindest bei Midrange- und EnterpriseSystemen, vorhanden sein.« NAS: Markt & Entwicklung »Scale-Out-Systeme werden in den nächsten Jahren weiter an Bedeutung gewinnen, durch die Flexibilität bei der Erweiterung von Kapazität und von Performance (Knoten)«, erwartet Robert Guzek, Produkt Marketing Manager Eternus bei Fujitsu Technology Solutions. »Derzeit finden diese horizontal skalierbaren NAS-Lösungen nur bei sehr speziellen Anwendungsfällen Verwendung und sind deswegen nur mit besonders hohem Aufwand nutzbar«, ergänzt Net App-Manager Herbert Bild. »In Zukunft werden sich aber Funktionalitäten wie Cluster-File-Systeme und Global-Namespace immer mehr verbreiten. Betrachtet man die Zukunft von NAS, spielt auch das Thema Big Data eine Rolle. Unternehmen sind mehr und mehr auf Rich-Media angewiesen, die hohe Anforderungen an Performance und Speicherkapazität stellen. Dazu zählen optische und akustische Dateien, wie beispielsweise Video oder Animation beinhalten.« Dies ist eines der am schnellsten wachsenden Marktsegmente und werde im Speziellen die Innovationskraft der einzelnen Storage-Hersteller fordern. Diesbezüglich werden auch SSD und Flash-Speicher eine interessante Option für die speicherguide.de K nächsten Jahre. storage-magazin.de Fachhändler für Storage-Systeme INS Systems GmbH Industriestraße 4-6, 61440 Oberursel Tel. 061 72/936 50 Fax 061 72/93 65 40 www.ins-online.de 6 Concat AG Berliner Ring 127-129, 64625 Bensheim Tel. 062 51/702 60 Fax 062 51/702 64 44 info@concat.de www.concat.de Cenit AG Systemhaus Industriestraße 52-54, 70565 Stuttgart Tel. 07 11/78 25 30 Fax 07 11/782 54 00 0 info@cenit.de, www.cenit.de Data Group IT Services Holding AG Wilhelm-Schickard-Straße,7 72124 Pliezhausen Tel. 071 27/97 00 00 Fax 071 27/97 00 33 kontakt@datagroup.de www.datagroup.de Topmedia Kasteler Straße 22-24, 65203 Wiesbaden Tel. 06 11/411 10 Fax 06 11/41 11 22 info@topmedia.de www.topmedia.de Trigonova GmbH Madertal 15, 72401 Haigerloch Tel. 074 74/95 18 0-0, Fax -29 info@trigonova.de www.trigonova.de Semico Computer GmbH Daimlerring 4, 65205 Wiesbaden Tel. 061 22/700 60 Fax 061 22/70 06 50 info@semico.de www.semico.de Carpe diem Dotzheimer Straße 95, 65197 Wiesbaden Tel. 06 11/95 17 50 Fax 06 11/59 03 62 anfrage@carpediem.de www.carpediem.de Bürotex GmbH Systemhaus Max-Eyth-Straße 21, 72622 Nürtingen Tel.07022/2790 0 Fax07022/2790 499 info@metadok.de www.metadok.de Inneo Solutions GmbH Rindelbacher Straße 42, 73479 Ellwangen Tel. 079 61/89 00 Fax 079 61/89 01 77 inneo-de@inneo.com www.inneo.de Bechtle AG Bechtle Platz 1, 74172 Neckarsulm Tel. 071 32/981 0 Fax 071 32/981 80 00 info@bechtle.com, www.bechtle.com Esell GmbH Halbergstraße 46, 66121 Saarbrücken Tel. 06 81/88 39 30 Fax 06 81/883 93 11 info@esell.de www.esell.de BASF IT Services Holding GmbH Jaegerstr. 1, 67059 Ludwigshafen Tel. 06 21/60 99 500 Fax 06 21/60 99 555 www.basf-it-services.com BS Backup Solutions GmbH Im Geiger 60, 70374 Stuttgart Tel. 07 11/53 06 92 80 Fax 07 11/53 06 92 86 info@backupsolutions.de www.backupsolutions.de 7 CNK Networks GmbH Becker-Göring-Straße 26/1, 76307 Karlsbad Tel. 072 48/915 00 Fax 072 48/91 50 50 nfo@cnk-networks.de www.cnk-networks.de Leitwerk GmbH Im Ettenbach 13a, 77767 Appenweier-Urloffen Tel. 078 05/91 80, Fax 078 05/91 82 000 info@leitwerk.de, www.leitwerk.de Comtri GmbH Leinfelder Straße 60, 70771 Leinfelden-Echterdingen Tel. 07 11/90 27 80 Fax 07 11/90 27 88 info@comtri.de, www.comtri.de Assistra AG Rotkreuzplatz 1, 80634 München Tel. 089/96 99 97 60. Fax 089/96 99 97 66 sales@assistra.com, www.assistra.de Netzwerk GmbH Kurze Straße 40, 70794 Filderstadt-Bonlanden Tel. 07 11/220 54 98 0 Fax 07 11/220 54 99 77 info@netzwerk.de www.netzwerk.de MCE – ETV GmbH Helene-Wessel-Bogen 11, 80939 München Tel. 089/318 56 20, Fax 089/311 52 07 vertrieb@mce-etv.com, www.mce-etv.com speicherguide.de Eine Publikation von speicherguide.de 8 Didas AG Schatzbogen 50, 81829 München Tel. 089/42 04 60, Fax 089/42 04 61 08 nruete@didas.de, www.didas.de Tproneth GmbH & Co. KG Zeppelinstraße 4, 82178 Puchheim Tel. 089/44 23 10, Fax 089/44 23 15 16 info@tproneth.de, www.tproneth.de Cancom Deutschland GmbH Ridlerstraße 37 80339 München Tel.: 089/5 40 54-0, Fax: -119 info@cancom.de, www.cancom.de Stemmer GmbH Peter-Henlein-Straße 2, 82140 Olching Tel. 081 42/458 61 00, Fax 081 42/458 61 99 info@stemmer.de, www.stemmer.de Teracuda GmbH Edisonstraße 3, 85716 Unterschleißheim Tel. 089/32 38 51 00, Fax 089/32 38 51 99 info@teracuda.de, www.teracuda.de NCS GmbH Curt-Frenzel-Straße 12, 86167 Augsburg Tel. 08 21/748 50-0, Fax: -10 info@ncs.de, www.ncs.de MR Datentechnik Vertriebs- und Service GmbH Emmericher Straße 13, 90411 Nürnberg Tel. 09 11/52 14 71 00, Fax 09 11/52 14 71 11 mr@mr-daten.de, www.mr-daten.de 9 Sandata EDV-Systemhaus GmbH Emmericher Straße 17, 90411 Nürnberg Tel. 09 11/952 30, Fax 09 11/952 32 21 info@sandata.de, www.sandata.de GL Consult Virnsbergerstraße 22, 90431 Nürnberg Tel.: 09 11/941169-0, Fax: 09 11/941169-1 info@glconsult.com, www.glconsult.com HWS Informationssysteme GmbH Ringstraße 10, 91413 Neustadt/Aisch Tel. 09 11/21 77 10, Fax: 09 11/21 77 17 77 info@hws-gruppe.de, www.hws-infosysteme.de Oktober 2011 2010 Accelerating Your Success™ Anspruchsvolle IT-Distribution orientiert sich am Kunden Das Avnet Storage-Team greift auf ein Portfolio leistungsfähiger Produkte und Dienstleistungen zurück, die alle auf den Mehrwert und Geschäftserfolg unserer Partner ausgerichtet sind: Markenprodukte weltweit führender Storage-Hersteller Erstklassige technische Services Kundenorientierte Value-Services – von der Finanzierung bis zur Schulung Umfassende Produkt- und Technologiekenntnisse Wir sehen es als unsere ständige Aufgabe, aus diesen leistungsorientierten Möglichkeiten Gesamtlösungen zu entwickeln, die den geschäftlichen Anforderungen der Endkunden Rechnung tragen. Wie wir Sie auf dem Weg zur optimalen Storagelösung unterstützen können, erfahren Sie von Ihrem Avnet-Ansprechpartner oder über unser Storageportal www.ts.avnet.com/de/storage © 2011 Avnet, Inc. All rights reserved. The Avnet Technology Solutions logo is a registered trademark of Avnet, Inc. All other products, brands and names are trademarks or registered trademarks of their respective owners. 28 Datenspeicherung Einkaufsführer Storage AMI www.ami.de www.stortrends.com Bluearc Germany www.bluearc.com Boston Server & Storage Solutions www.bostondeutschland.de Preis (netto in Euro) Online Kapazitäts erweiterung Disk-Technik Max. Disk-Anzahl RAID-Level Max. Bruttokapazität in TByte Produktname Hersteller Marktübersicht NAS-Systeme StorTrends 3200 j 32 0, 1, 5, 6, 10, 50, 60 16 SATA, SAS K ab 8.700 StorTrends 3200 N 32 0, 1, 5, 6, 10, 50, 60 16 SATA, SAS, SSD K ab 13.400 Mercury 110 8 PByte 0, 1, 5, 6, 10 k.A. FC, SAS, SATA, SSD K ab 46.000 Mercury 55 4 PByte 0, 1, 5, 6, 10 k.A. FC, SAS, SATA, SSD K ab 32.000 Titan 3100 8 PByte 0, 1, 5, 6, 10 k.A. FC, SAS, SATA, SSD K ab 69.000 Titan 3200 16 PByte 0, 1, 5, 6, 10 k.A. FC, SAS, SATA, SSD K ab 106.000 Igloo MID-4T-Stor 4 0, 1, 5, 10 4 SAS, SATA optional ab 1.655 Igloo 1U-8T-Stor 8 0, 1, 5, 6, 10, 50, 60 4 SAS, SATA optional ab 3.333 Igloo 2U-12T-Stor 12 0, 1, 5, 6, 10, 50, 60 12 SAS, SATA optional ab 4.439 Igloo 4U-36T Cluster 36 0, 1, 5, 6, 10, 50, 60 36 SAS, SATA optional ab 19.170 ab 2.487 Igloo 1U-2.4T-Stor-10GCX4 2,4 0, 1, 5, 6, 10, 50, 60 8 SAS, SATA optional Igloo 4U-72T-Stor-10GCX4 72 0, 1, 5, 10 36 SATA optional ab 6.963 Igloo 3U-24 NXStor SBB 24 RAID Z, Z2, Z3 16 SAS optional ab 29.415 TeraStation III iSCSI Rackmount 4/8 0, 1, 5, 10, JBOD 4 SATA k ab 1.289 TeraStation III Rackmount 4/8 0, 1, 5, 10, JBOD 4 SATA k ab 1.089 4/8/12 0, 1, 5, 6, 10, JBOD 4 SATA k ab 1.479 4/8 0, 1, 5, JBOD 4 SATA k ab 1.859 PowerVault NX300 8 0, 1, 5, 6, 10 4 SATA k ab 1.749 PowerVault NX3000 12 0, 1, 5, 6 6 SAS, SATA k ab 5.326 PowerVault NX3100 24 0, 1, 10, 5, 50, 6 12 SAS, Nearline SAS k ab 6.849 Drobo www.drobo.com/de Drobo B1200i 36 BeyondRAID 12 SATA K ab 7.900 Eurostor www.EUROstor.com ES-8708DSS 24 0, 1, 3, 5, 6, JBOD 8 SAS, SATA K ab 4.630 ES-8708DSS-1U 8 0, 1, 3, 5, 6, JBOD 8 SAS, SATA K ab 5.460 ES-8716DSS 48 0, 1, 3, 5, 6, JBOD 16 SAS, SATA K ab 6.180 ES-8724DSS 72 0, 1, 3, 5, 6, JBOD 24 SAS, SATA K ab 7.840 ES-8724DSS-2U 24 0, 1, 3, 5, 6, JBOD 24 SAS, SATA K ab 9.630 ES-8736DSS 108 0, 1, 3, 5, 6, JBOD 36 SAS, SATA K ab 10.100 ES-2808DSS 24 0, 1, 3, 5, 6, JBOD 8 SAS, SATA K ab 5.700 ES-2808DSS-1U 8 0, 1, 3, 5, 6, JBOD 8 SAS, SATA K ab 5.820 ES-2816DSS 48 0, 1, 3, 5, 6, JBOD 16 SAS, SATA K ab 7.840 ES-2824DSS 72 0, 1, 3, 5, 6, JBOD 24 SAS, SATA K ab 11.650 ES-2824DSS-2U 24 0, 1, 3, 5, 6, JBOD 24 SAS, SATA K ab 13.440 ES-2836DSS 108 0, 1, 3, 5, 6, JBOD 36 SAS, SATA K ab 19.620 BettyNET III Serie 4 12 0, 1, 5, 6, 10, JBOD 4 SATA K ab 1.200 BettyNET III Serie 8 24 0, 1, 5, 6, 10, JBOD 8 SATA K ab 2.510 BettyNET III Serie 16 48 0, 1, 5, 6, 10, JBOD 16 6 Gbit SAS/SATA K ab 7.900 StorageWorks X3400 Network Storage Gateway 4,3 0,1, 1+0, 5, 5+0, 6, 6+0 k.A. SATA, SAS K ab 4.010 StorageWorks X3800 G2 Network Storage Gateway 4,3 0,1, 1+0, 5, 5+0, 6, 6+0 k.A. SATA, SAS K ab 6.410 Buffalo Technology www.buffalo-technology.de TeraStation ProSerie Rackmount TeraStation Pro Rackmount Windows Storage Server 2008 Dell www.dell.de Gruppemedia www.gruppemedia.de Hewlett-Packard www.hp.com/de 192 5, 6 48 SATA, SAS K ab 95.000 1,3 PByte 6 k.A. SAS K ab 110.000 HNAS 3080 4 PByte 1, 5, 6, 10 k.A. FC, SAS, SATA, SSD K ab 34.000 HNAS 3090 8 PByte 1, 5, 6, 10 k.A. FC, SAS, SATA, SSD K ab 50.000 HNAS 3200 16 PByte 1, 5, 6, 10 k.A. FC, SAS, SATA, SSD K ab 110.000 System Storage N series N3300 136 4, DP (6) 68 SAS, SATA, FC K ab 4.599 System Storage N series N3400 272 4, DP (6) 136 SAS, SATA, FC K ab 5.299 System Storage N series N6210 480 4, DP (6) 240 SAS, SATA, FC K ab 8.900 System Storage N series N6240 1.200 4, DP 600 SAS, SATA, FC K ab 17.900 System Storage N series N6270 1.920 4, DP 960 SAS, SATA, FC K ab 39.900 System Storage N series N7950T 4.320 4, DP 1.440 SAS, SATA, FC K ab 109.900 Sandico 12bay ybto20 36 0, 1, 10, 5, 6, 50 12 SAS, SATA K ab 1.999 Sandico 24bay ybto21 24 0, 1, 10, 5, 6, 50 24 SAS, SATA K ab 2.999 Sandico 12bay ybto30 48 0, 1, 10, 5, 6, 50 16 SAS, SATA K ab 2.349 StorCenter px4-300r Network Storage Array 8 0, 1, 10, 5, 5+1 (hot spare), 6 4 SATA II K ab 2.149 StorCenter px4-300r Network Storage Array 12 0, 1, 10, 5, 5+1 (hot spare), 6 4 SATA II K ab 2.849 StorCenter ix12-300r Network Storage Array 4 0, 1, 10, 5, 5+1 (hot spare), 6 4 SATA II K ab 3.699 StorCenter ix12-300r Network Storage Array 8 0, 1, 10, 5, 5+1 (hot spare), 6 12 SATA II K ab 4.249 StorCenter px12-350r Network Storage Array 8 0, 1, 10, 5, 5+1 (hot spare), 6 12 SATA II K ab 4.249 StorCenter px12-350r Network Storage Array 12 0, 1, 10, 5, 5+1 (hot spare), 6 12 SATA II K ab 4.999 StorageWorks X9320 Network Storage System X9720 Network Storage System Hitachi Data Systems www.hds.com IBM www-03.ibm.com/systems/ de/storage/network/ ICO www.ico.de Iomega www.iomega.de Fortsetzung auf Seite 30 speicherguide.de storage-magazin.de Eine Publikation von speicherguide.de Oktober 2011 30 Datenspeicherung Einkaufsführer Storage Fortsetzung von Seite 28 Netgear www.netgear.de N-TEC www.ntecgmbh.de Overland Storage www.overlandstorage.com Online Kapazitäts erweiterung Lynx NAS 1128M 12 0, 1, 5, 6, 10, 50, 60 4 SSD, SAS, SATA K ab 1.200 Lynx NAS 2240M 24 0, 1, 5, 6, 10, 50, 60 8 SSD, SAS, SATA K ab 2.200 Lynx NAS 3240M 48 0, 1, 5, 6, 10, 50, 60 16 SSD, SAS, SATA K ab 2.500 Lynx NAS 4240M 72 0, 1, 5, 6, 10, 50, 60 24 SSD, SAS, SATA K ab 3.900 Lynx NAS 4242M 108 0, 1, 5, 6, 10, 50, 60 36 SSD, SAS, SATA K ab 4.500 Lynx NAS 2240L 24 0, 1, 5, 6, 10, 50, 60 8 SSD, SAS, SATA K ab 2.000 Lynx NAS 3240L 48 0, 1, 5, 6, 10, 50, 60 16 SSD, SAS, SATA K ab 2.300 Lynx NAS 4240L 72 0, 1, 5, 6, 10, 50, 60 24 SSD, SAS, SATA K ab 3.700 Lynx NAS 4242L 108 0, 1, 5, 6, 10, 50, 60 36 SSD, SAS, SATA K ab 4.300 Storageserver EN O13000-4R 4 0, 1, 5, 10, 50, JBOD 4 SAS, SATA II K ab 1.479 Storageserver EN O25000-12 12 0, 1, 5, 6, 10, 50, JBOD 12 SAS, SATA II K ab 2.269 Storageserver EN O35000-16 16 0, 1, 5, 6, 10, 50, JBOD 16 SAS, SATA II K ab 2.679 ProNAS 4-8000 8 0, 1, 5, 10, 50, JBOD 4 SATA II K ab 949 NDL-3016R/L 16 0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD 16 6 Gbit/s SAS, SATA K 5.440 NDL-3024R/L 48 0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD 24 6 Gbit/s SAS, SATA K 6.560 NDL-3224R/L 24 0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD 24 6 Gbit/s SAS, SATA K 7.990 NDL-3016R/W 32 0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD 16 SAS, SATA II K 6.230 NDL-3024R/W 48 0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD 24 SAS, SATA II K 7.750 NDL-2450R-S 8 0, 1, 5, 6, 10 4 SATA II K ab 1.150 (mit 4x 1 TByte) NDL-2450R-R 8 0, 1, 5, 6, 10 4 SATA II K ab 1.390 (mit 4x 1 TByte) NDL-2800R+ 16 0, 1, 5, 6, 10 8 SATA II K ab 2.220 (mit 8x 1 TByte) NDL-2800SR 24 0, 1, 5, 6, 10 8 SAS, SATA II K ab 2.550 (mit 8x 1 TByte) NDL-21200R 36 0, 1, 5, 6, 10, 50, 60 12 6 Gbit/s SAS, SATA II K ab 5.330 (mit 12x 2 TByte) NDL-21600R 48 0, 1, 5, 6, 10, 50, 60 16 6 Gbit/s SAS, SATA II K ab 6.470 (mit 16x 2 TByte) FAS2020 68 4, 6 (DP) 68 SAS, FC, SATA K ab 5.499 FAS2040 136 4, 6 (DP) 136 SAS, FC, SATA K ab 19.000 FAS2050 104 4, 6 (DP) 104 SAS, FC, SATA K ab 16.900 FAS3210 720 4, 6 (DP) 240 FC, SATA, SAS K ab 51.000 FAS3240 1.800 4, 6 (DP) 600 FC, SATA, SAS,SSD K ab 61.300 FAS3270 2.880 4, 6 (DP) 960 FC, SATA, SAS, SSD K ab 104.800 Preis (netto in Euro) Disk-Technik Netapp www.netapp.de Max. Disk-Anzahl NASdeluxe www.starline.de RAID-Level Prostor www.prostor.de Max. Bruttokapazität in TByte Lynx IT Systeme www.lynx-it-systeme.com Produktname Hersteller Marktübersicht NAS-Systeme FAS6210 3.600 4, 6 (DP) 1.200 FC, SATA, SAS, SSD K ab 118.800 FAS6240 4.320 4, 6 (DP) 1.440 FC, SATA, SAS, SSD K ab 142.500 FAS6280 4.320 4, 6 (DP) 1.440 FC, SATA, SAS, SSD K ab 167.200 12 0,1,5,10, X-RAID2 4 SATA K 1.008 (o. HDDs) ReadyNAS Pro 6 ReadyNAS 1500 12 0,1,5,10, X-RAID2 4 SATA K 1.027 (4x 1 TByte) ReadyNAS 2100 12 0,1,5,10, X-RAID2 4 SATA K 1.260 ( 4x 1 TByte) ReadyNAS 3100 12 0,1,5,10, X-RAID2 4 SATA K 3.239 (4x 1 TByte) ReadyNAS 3200 24 0,1,5,6,10, X-RAID2 12 SATA K 4.678 (6x 1 TByte) ReadyNAS 4200 36 0,1,5,6,10, X-RAID2 12 SATA K 6.953 (12x 1 TByte) rapidNAS CX MS204-G4 8 0, 1, 10, 3, 5, 6, k.A. SAS, SATA II K ab 1.348 rapidNAS CX MS208-G4 16 0, 1, 10, 3, 5, 6, k.A. SAS, SATA II K ab 2.425 rapidNAS DSS104-G4 8 0, 1, 10(1E), 3, 5, 6, 30, 50, 75 k.A. SAS, SATA II K ab 2.158 rapidNAS DSS208-G4 16 0, 1, 10(1E), 3, 5, 6, 30, 50, 76 k.A. SAS, SATA II K ab 2.965 rapidNAS DSS316-G4 32 0, 1, 10(1E), 3, 5, 6, 30, 50, 79 k.A. SAS, SATA II K ab 3.731 rapidNAS DSS524-G4 48 0, 1, 10(1E), 3, 5, 6, 30, 50, 80 k.A. SAS, SATA II K ab 5.057 rapidNAS DSS848-G4 96 0, 1, 10(1E), 3, 5, 6, 30, 50, 80 k.A. SAS, SATA II K ab 8.473 rapidNAS MS104-G4 8 0, 1, 10(1E), 3, 5, 6, 30, 50, 60 k.A. SAS, SATA II K ab 2.035 rapidNAS MS208-G4 16 0, 1, 10(1E), 3, 5, 6, 30, 50, 62 k.A. SAS, SATA II K ab 3.227 rapidNAS MS316-G4 32 0, 1, 10(1E), 3, 5, 6, 30, 50, 64 k.A. SAS, SATA II K ab 3.861 rapidNAS MS524-G4 48 0, 1, 10(1E), 3, 5, 6, 30, 50, 65 k.A. SAS, SATA II K ab 5.238 rapidNAS MS848-G4 96 0, 1, 10(1E), 3, 5, 6, 30, 50, 65 k.A. SAS, SATA II K ab 8.415 SnapServer N2000 24 0, 1, 5, 6, 10 72 SAS, SATA II K ab 3.800 SnapServer410 8 0, 1, 5, 6, 10 4 SATA II k ab 1.500 SnapSAN S1000 24 0, 1, 0+1, 3, 5, 6, 10, 30, 50, 60, N-way mirror, JBOD 12 SAS, SATA II K ab 2.600 SnapSAN S2000 24 0, 1, 5, 6, 10, 50, 60 12 SAS, SATA II K ab 5.800 SnapServer DX1 12 0, 1, 5, 6, 10, DynamicRAID 4 SATA K ab 1.250 SnapServer DX2 36 0, 1, 5, 6, 10, DynamicRAID 12 SAS, SATA II K ab 3.380 Quelle: speicherguide.de speicherguide.de storage-magazin.de Eine Publikation von speicherguide.de Oktober 2011 Was hat WAN-Optimierung mit Storage zu tun? Die Lösungen von Silver Peak sind das fehlende Puzzleteil, wenn es um effektiven Durchsatz zwischen Rechenzentren geht. Die positiven Auswirkungen der Silver Peak Produkte zeigen wir Ihnen gerne in einem persönlichen Gespräch oder rufen Sie uns an unter Tel. +49 8105 370 370 Ihr Partner für Silver Peak Lösungen und Produkte Orchestra Service GmbH Web: www.orchestra.de Mail: info@orchestra.de 32 Datensicherung Einkaufsführer Storage Marktübersicht Disk-Backup-Systeme Disk-Backup – Dedup die perfekte Ergänzung Eine Datensicherung muss schnell und effizient sein. Vor allem, wenn das täglich zu sichernde Datenvolumen im TByte-Bereich liegt. Disk-Backup-Systeme beschleunigen das Backup & Recovery und reduzieren in Kombination mit Dedup den Hardware- und Investitionsbedarf. [ Karl Fröhlich ] Das täglich zu sichernde Datenvolumen ist längst im TByteBereich angekommen. Einer Umfrage von speicherguide.de zufolge müssen rund 20 Prozent der befragten Unternehmen (Region DACH) mehr als zehn TByte pro Tag sichern. Knapp 13 Prozent hantieren täglich mit bis zu zwei TByte. Insgesamt liegt das Sicherungsvolumen bei zirka 60 Prozent bei über einem TByte. Für IT-Abteilung gilt es daher große Datenmengen schnell zu sichern. Die Zeiten, in denen Firmen über Nacht ihr Backup erstellt haben, sind vorbei. Einerseits sind die Zeitfenster zu kurz, andererseits ist vielen der Abstand von einem Tag zu lang. Die Lösung: Disk-Backup. Für Disk-Backup spricht vor allem das schnelle Recovery sowie die Verkürzung des Sicherungsfensters. Die einfachere Verwaltung und Handhabung gegenüber Tape ist für rund 25 Prozent vorrangiges Kaufkriterium. speicherguide.de speicherguide.de storage-magazin.de Eine Publikation von speicherguide.de 54 Prozent der befragten speicherguide.de-Leser arbeiten seit über zwei Jahren mit einem entsprechenden Ansatz. Bei 19 Prozent ist die Laufzeit noch etwas kürzer. Disk-Backup ist nicht mehr länger nur großen Unternehmen mit »dicken Budgets« vorbehalten. Neue Systeme unterstützen nun auch bei KMUs ein schnelles Backup bzw. Recovery sowie Funktionen wie Replikation. Viele Firmen wechseln aber bereits zur zweiten DiskBackup-Generation. Das Interesse von IT-Verwaltern war von Beginn an sehr groß. Zu einem festen Bestandteil der unternehmensweiten BackupRecovery-Strategie hat sich die Technik dann in den vergangenen fünf bis sechs Jahren entwickelt. »Die Festplatten sind nicht nur stark in den Datensicherungsbereich eingedrungen, sondern dienen auch erfolgreich als zuverlässiges, schnelles und relativ günstiges Medium zur Archivierung von Unternehmensdaten«, sagt Dr. Georgios Rimikis, Manager Solutions Strategy bei Hitachi Data Systems. »Diese Tendenz wird sich in den nächsten Jahren noch verstärken, denn Flash-Disks etablieren sich mittlerweile im primären Speicherbereich. Sie kommen insbesondere bei Anwendungen mit hohen Performance-Anforderungen zum Einsatz.« SSDs verschieben künftig die preis günstigen Kapazitätsplatten (SATA) in das Backup-Segment. »Die Basisanforderungen an das Disk-Backup haben sich über die Jahre kaum verändert, wenn wir die SLAs oder RTO/RPO betrachten«, ergänzt Frank Herold, Manager Presales und Consulting Central & Eastern Europe bei Quantum. »Disk soll in erster Linie ein schnelles Restoring ermöglichen. Hinzugekommen ist die bezahlbare Möglichkeit von Disaster-Recovery für kleine und mittelgroße Kunden mittels Replikation deduplizierter Daten.« Dies war bis vor ein, zwei Jahren nur Großkunden mit entsprechenden Budgets vorbehalten. Mittlerweile geht es in IT-Abteilungen aber nicht mehr darum DiskBackup einzuführen, sondern die ersten »Gehversuche« zu migrieren bzw. zu erweitern. Disk-Backup: Dedup perfekte Ergänzung Als ideale Ergänzung zu Disk-Backup gilt die Datendeduplizierung (Dedup). Doch obwohl das Thema Medien und Branche Oktober 2011 34 Datensicherung Einkaufsführer Storage schon länger beschäftigt, sind viele ITAbteilungen trotzdem skeptisch. Knapp 43 Prozent der von speicherguide.de befragten Leser nutzen Dedup nicht. Dem stehen 30 Prozent Nutzer gegenüber und bei knapp 26 Prozent ist die Technik in der Planung. Datenstruktur gibt die Dedup-Raten vor Die Branche stellt die Technik in einem möglichst positiven Licht dar: Dedup steigert die Effizienz, reduziert das Datenvolumen sowie die benötigten Bandbreiten und verringert dadurch Investitionen in neue bzw. leistungsfähigere Hardware. Gleichzeitig wird die Geschwindigkeit erhöht und insgesamt Kosten eingespart. Grundsätzlich scheint die Mehrheit aller, die Dedup aktuell einsetzen, mit den Ergebnissen zufrieden zu sein. Die von speicherguide.de befragten Leser geben zum Teil Werte von bis zu 80 Prozent und mehr an. Wobei es aber auf die Daten selbst ankommt, nicht alle lassen sich gleich gut reduzieren. »Die Datenstruktur hat einen nachhaltigen Einfluss auf den Deduplikations- Faktor«, sagt Robert Guzek, Produkt Marketing Manager Eternus bei Fujitsu Technology Solutions. »Es gibt viele sinnvolle Software-Umgebungen für die Deduplikation wie beispielsweise Datenbanken, Dokumenten-ManagementSysteme oder Microsoft `Exchange´. Ein optimales Einsatzfeld besteht bei Firmen, die Außenstellen – möglichst ohne zusätzliche EDV-Mitarbeiter – kosteneffizient betreiben möchten.« Bei verschlüsselten Daten ist Dedup dagegen weniger sinnvoll. Hier sei nur ein geringer Faktor erreichbar. Auch zur Langzeitarchivierung eigne sich Dedup nur bedingt. Deduplizierung: Die entscheidenden Fallstricke Die besten Ergebnisse werden in virtualisierten Umgebungen mit vielen gleichen Images erzielt sowie bei der Deduplikation von Backup-Daten. Gleiches gilt für Dateien mit umfangreichen Versionsständen sowie bei E-Mails, die häufig identische Anhänge besitzen. Sobald Daten doppelt abgelegt sind, was oft der Fall ist, kann Deduplizierung seine Fähigkeiten voll ausspielen. »Die Rolle einer Deduplizierungs-Appliances darf nicht falsch eingeschätzt werden« warnt Frank Herold, Manager Presales und Consulting Central & Eastern Europe (CEE) bei Quantum. »Sie sind keine Archive für Jahre – logische Fehler können passieren. Dedup verleitet viele IT-Administratoren, das gesamte Backup auf Disk zu legen. Ein Ausfall einer Appliance ist dann gleichbedeutend mit einem Totalausfall einer klassischen Tape-Library, inklusive aller Roboter, Laufwerke und Medien. Monats-, Quartals- und Jahressicherungen sollten unbedingt auf einer anderen Technologie gesichert werden – hier bietet sich Tape sicherlich an.« Bei der Planung für eine Neuinstallation sollten IT-Manager genügend Reserven in die Skalierbarkeit der Lösung einrechnen, um nicht nach zwei Jahren vor dem gleichen Problem zu stehen. Oft werden Datensicherungsprobleme so lange aufgeschoben, bis es nicht mehr weitergeht und eine neue Datensicherungslösung schnellstmöglich her muss. Administratoren sind gut beraten, sich Zeit zu nehmen und neben dem theoretischen KriterienK katalog Testings mit einzuplanen. Ausgewählte Disk-Backup-Systeme im Überblick Hersteller Produktname Fujitsu Technology Solutions Eternus CS 50 de.ts.fujitsu.com/eternus_cs Eternus CS 800 Eternus CS 500DL Eternus CS 500 Eternus CS 1000 Eternus CS2000 Eternus CS3000 Eternus CS4000 Eternus CS5000 Gingcom SMB www.gingcom.de T-Modell TX-Modell Hitachi Data Systems ProtecTier www.hds.de Hewlett-Packard Storage D2D2502i www.hp.com/de/backup Storage D2D2504i Storage D2D4106 Storage D2D4112 Storage D2D4312 Storage D2D4324 Storage VLS9200 Storage VLS12200 EVA Gateway IBM TS7600 ProtecTIER www.ibm.de Overland Storage www.overlandstorage.com Quantum www.quantum.com/Products/ Disk-BasedBackup/DXi4000/ Index.aspx Tandberg Data www.tandbergdata.com REO 4600 BruttokapaMax. Max. virtuelle zität in Tbyte Geschwindigkeit Librarys 2,4 1,4 TByte/h 10 160 5,9 TByte/h 64 1.568 9 TByte/h k.A. 196 9 TByte/h 20 167,4 9 TByte/h 20 1.557 37 TByte/h 20 1.557 37 TByte/h 20 1.557 37 TByte/h 20 1.557 37 TByte/h 20 k 10 k.A. k 10 k.A. k 12/24 k.A. 1.000 400 MByte/s pro 16 Server 2 325 GByte/h 4 4 450 GByte/h 8 6 800 GByte/h 16 12 1,3 TByte/h 24 12 2,75 TByte/h 50 24 4 TByte/h 50 10 4.4 TByte/h/node 16 20 2,2 TByte/h/node 16 25 PByte 24 Max. virtuelle Tape-Slots 20.000 9.000 1.500.000 300.000 300.000 500.000 500.000 1.500.000 1.500.000 k k k 16.000 integrierte Deduplikation k K k in Vorbereitung in Vorbereitung in Vorbereitung in Vorbereitung in Vorbereitung in Vorbereitung K K K K integriertes CDP k k k k k k k k k K K K K Replikation Disk-Technik Preis in Euro K K K K K K K K K optional optional optional K SAS NL SAS, SAS NL SAS, SAS NL SAS, SAS NL SAS, SAS NL SAS, SAS NL SAS, SAS NL SAS, SAS NL SAS, SAS SAS, SATA II SAS, SATA II SAS, SATA II FC, SAS, SATA II ab 31.500 ab 10.400 ab 77.000 ab 77.000 ab 153.000 ab 395.000 ab 523.000 ab 620.000 ab 846.000 ab 19.900 ab 17.250 ab 36.750 ab 13.800 192 384 1.536 3.456 51.200 51.200 50.000 50.000 K K K K K K K K k.A. k.A. k.A. k.A. k.A. k.A. k.A. k.A. K K K K K K k.A. k.A. SATA II SATA II SATA II SATA II SATA II SATA II SATA II SATA II ab 6.300 ab 9.170 ab 28.985 ab 58.300 ab 77.870 ab 114.425 ab 33.100 ab 87.235 K K K SAS, FC, SATA II, FDE ab 20.000 k k SATA II ab 8.900 mittels Replikation mittels Replikation mittels Replikation k k k k K SATA II ab 10.125 K SATA II ab 17.415 K SATA II, SSD ab 41.450 k K K K k.A. SATA II SATA II SATA II ab 2.999 ab 2.045 ab 2.354 ab 3.187 2.000 MByte/s Backup, 2.800 MByte/s Restore 450 MByte/s 16 500.000 32 512 k k K DXi4510/4520 2,2 1,7 TByte/h k DXi4601 12 1,7 TByte/h k k K DXi6700 Family 80 5,8 TByte/h 64 9.000 K k.A. k.A. k.A. k.A. k K K K RDX QuikStation DPS2040 DPS2140 DPS2142 Quelle: speicherguide.de speicherguide.de storage-magazin.de 8 4 4 8 200 MByte/s 220 MByte/s 220 MByte/s 220 MByte/s k.A. k.A. k.A. k.A. Eine Publikation von speicherguide.de Oktober 2011 01277 Dresden www.interface-systems.de sales@interface-systems.de 22303 Hamburg www.traffix.de storage@traffix.de 28357 Bremen www.basys-bremen.de vertrieb@basys-bremen.de 30559 Hannover www.grass-merkur.de frank.heinrich@grass-merkur.de 51063 Köln www.nextevolution.de jan.dilthey@nextevolution.de 51647 Gummersbach www.opitz-consulting.de info@opitz-consulting.de 53111 Bonn www.hug.de manfred.wollweber@hug.de 55543 Bad Kreuznach www.urano.de info@urano.de 59457 Werl www.ahd.de carsten.lueckel@ahd.de Storage Competence Partner ist eine Kooperation des VAD TIM AG mit führenden Storage Herstellern und Systemhäusern in Deutschland. Diese zeichnen sich aus durch: ❙ herstellerübergreifende Lösungskompetenz ❙ hochqualifizierten Support und Professional Service ❙ methodische, technologische und kaufmännische Storage Beratungskompetenz 61352 Bad Homburg www.comparex.de stefan.ehrhardt@comparex.de 63303 Dreieich www.pandacom.de bruecker@pandacom.de 64625 Bensheim www.concat.de thomas.stumpf@concat.de 70563 Stuttgart www.condor-computer.de vertrieb@condor-computer.de 72186 Empfingen www.stemmer.de thomas.ummer@stemmer.de 73479 Ellwangen www.inneo.de it-info@inneo.de 74172 Neckarsulm www.bechtle.de norbert.ponto@bechtle.de 82178 Puchheim www.tproneth.de info@tproneth.de 85716 Unterschleißheim www.teracuda.de info@teracuda.de 94315 Straubing www.henrichsen.de info@henrichsen.de Kontaktieren Sie uns: 0611 2709-222 oder projektdevelopment@tim.de TIM AG Schoßbergstraße 21 65201 Wiesbaden www.tim.de www.storagecompetencepartner.de Take IT to the next Dimension Speicherwelten expandieren in Raum und Zeit. Skalierbare IT folgt ihren Vektoren. Denn unser Konzept steht für die Evolution in einem neuen Storage-Universum. Scale Up. Dynamische Erweiterung von Performance, Verbindungen und Kapazität innerhalb eines Systems. Scale Out. Ausbau über die Grenzen eines Systems hinaus zur Bildung logischer Einheiten mit gemeinsamen Ressourcen. Scale Deep. Herstellerunabhängige Virtualisierung vereint alle Datenarten. Hitachi Virtual Storage Platform Die einzige 3D-Scaling Platform, die allen Datenarten gerecht wird. looking for new dimensions: www.my-hds.de/3d