storage-magazin.de - Einkaufsführer Storage 2011

Transcription

storage-magazin.de - Einkaufsführer Storage 2011
storage-magazin.de
Eine Publikation von speicherguide.de
8 | 2011
Special Einkaufsführer Storage
L SPEICHER-TRENDS
Effizienz und
Skalierbarkeit
L TECHNIK
Pimp my
Storage
storage-magazin.de
L PRODUKTE
Marktübersicht
NAS-Server
virtualisierungs-guide
virtualisierungs-guide
36 Sei
ten
ECMguide.de
geball
Storag tes
e-Wiss
en
ECMguide.de
Einkaufsführer
Storage
+++ Große Marktübersichten +++
DISK-BACKUP & TAPE-LIBRARYS
Profitieren Sie von der Leistung
der neuen 6Gb/s Adaptec
RAID-Controller
Kostengünstige Hardware RAID (SATA/SAS)-Controller
mit integriertem DRAM übertreffen Software-basierte
HBAs und SATA-Controller
Adaptec Serie 6E – ECHTES HardwareRAID für Entry-Level-Systeme
Adaptec’s Serie 6E Unified Serial SATA/SAS RAID-Controller verfügen über robustes Hardware-RAID und den
Adaptec RAID-Code, Management-Funktionen der Enterprise-Klasse und breite Betriebssystem-Unterstützung
für RAID-Systeme der Einstiegsklasse. Die Controller der Serie 6E bieten dieselbe Leistung von 6 Gbit/s wie
unsere Controller der Serie 6, sind aber optimiert auf Plattformen, bei denen sich Controller der Serie 6 aus
Preisgründen oder wegen ihres Formfaktors bzw. ihrer Host-Konnektivität nicht eignen.
✓
✓
✓
✓
HBA und Hardware-RAID-Funktionalität in günstigen 4- und 8-Port-Karten
Intelligent Power Management reduziert Strom- und Kühlkosten
um bis zu 70%
Hybrid-RAID für maximale Leistung und Zuverlässigkeit
Bewährte Technologie — mehr als 74 Millionen ausgelieferte Controller
und Expander mit 6 Gb/s SAS-Ports
Erfahren Sie mehr über Adaptec 6 Gb/s RAID-Controller:
www.adaptec.com/partners/promo
© PMC Sierra, Inc. 2011. Alle Rechte vorbehalten. PMC, PMC-SIERRA und Adaptec sind eingetragene Warenzeichen der PMC-Sierra, Inc.
„Adaptec by PMC“ ist ein Warenzeichen der PMC-Sierra, Inc. Andere Produkte und Namen können Warenzeichen der entsprechenden Unternehmen sein.
Eine komplette Liste aller PMC-Sierra Warenzeichen erhalten Sie unter www.pmc-sierra.com/legal
3
Einkaufsführer Storage
Inhalt
Editorial
Editorial / Impressum�������������������������� Seite 3
Speicher muss sich
Firmenprozessen unterordnen
Datenspeicherung:
Neue Technologien für mehr
Speicherleistung������������������������������ Seite 4
Datensicherung:
Backup: Kosten vs. Sicherheit
und Verfügbarkeit��������������������������� Seite 7
Advertorial:
SAN-Speicher mit redundanten
Controllern������������������������������������ Seite 11
Advertorial:
Storage-Hypervisor beschleunigt
Vmware-Umgebung��������������������� Seite 12
Advertorial:
Einheitliches Management bis
in die Cloud����������������������������������� Seite 14
Advertorial:
Was hat WAN-Optimierung
mit Storage zu tun?���������������������� Seite 16
Datenspeicherung:
Effizienter und skalierbarer
Speicher����������������������������������������� Seite 18
Datenspeicherung:
Daten so sicher wie im Safe��������� Seite 20
Virtualisierung:
Mit Speicher virtualisierte
Welten bändigen�������������������������� Seite 22
Datenspeicherung:
Speicherbedarf analysieren
und Engpässe vermeiden������������� Seite 24
Datensicherung:
Disk-Backup – Dedup die
perfekte Ergänzung���������������������� Seite 32
Haben Sie es bemerkt, es gibt einen neuen Trend? Big Data!
Klingt irgendwie mächtig und wichtig. Auf neudeutsch handelt
es sich dann doch »nur« um die Speicherung und Verwaltung
von großen Datenmengen. Das Problem, das viele Firmen längst
erkannt haben, doch teils weit davon entfernt sind, es in den
Griff zu bekommen. Laut IDC verdoppelt sich das weltweite Datenvolumen etwa alle
18 Monate. Dafür sorgt vor allem die zunehmende maschinelle Erzeugung von elektronischen Informationen. Diese reichen von Protokollen über automatische Erfassungen in der Produktion und Logistik bis zur Digitalisierung von Dokumenten, Bildern,
Musik und Videos (in HD und 3D). Hinzukommen große Datenmengen aus der Finanzindustrie und der Wissenschaft sowie dem Gesundheitswesen.
Mittelständische Unternehmen stehen diesem Wachstum mitunter noch relativ
gelassen gegenüber. Vieles geschieht zunächst unbemerkt und fließend. Aus einem
NAS-Server werden irgendwann zwei Systeme, ein vollbestückter 19-Zoll-Schrank
entwickelt sich zu einer ganzen Rack-Straße und plötzlich gibt es ein zweites Ausfallrechenzentrum an einem anderen Standort. Und dann soll das Ganze auch noch in
eine Langzeitarchivierung überführt werden.
Hinzukommt, dass sich die Budgets für IT-Ausstattung nicht im Gleichschritt mit
dem steigenden Datenaufkommen entwickeln. Eher ist es so, dass mit weniger Mitteln
mehr erreicht werden muss. Eines dieser Abwehrmittel lautet Virtualisierung und
natürlich Cloud-Storage. Wichtig ist, den vorhandenen Speicher effizient zu nutzen
und mit flexiblen On-Demand-Konzepten bei Bedarf zusätzlichen Storage dazuzukaufen, egal ob als physikalische Hardware oder eben als virtueller Speicherplatz in der
Wolke.
Auch wenn sich die einschlägigen Marktforscher geradezu mit neuen noch höheren
Zahlen zur Cloud überschlagen, überwiegt trotzdem die Skepsis . Zu viele Fragen
warten auf eine Antwort. Letztendlich läuft vieles auf den Preis hinaus. Wenn der
Cloud-Storage günstig ist, wird das das Interesse von Unternehmen schüren, denn
diese wollen oder müssen Platz, Energie und an der Kühlung sparen.
Zum Teil fehlt es noch an der Vorstellungskraft, was die Cloud wirklich leisten kann
– abgesehen davon was das wirklich sein soll. Lesen Sie dazu auch auf speicherguide.
de (http://bit.ly/pZMJFV) wie das Auto der Zukunft von der Cloud profitieren soll.
Bislang fragen IT-Leiter zu recht, wie kommen die Daten in die Cloud. Datacore-CEO
George Teixeira hat es in einer Presserunde auf den Punkt gebracht: »Bisher läuft
alles auf ein manuelles Kopieren der Daten hinaus – das kann es nicht sein.« Das heißt,
ein externes Wolkengebilde nutzt niemanden etwas. Cloud-Storage muss sich wie
jedes andere Speichermedium auch, in die Firmenstrukturen und -prozesse einbinden.
Sehen wir es positiv, Erkenntnis ist der erste Weg zur Besserung.
Ihr Karl Fröhlich, Chefredakteur, speicherguide.de
Impressum
storage-magazin.de – eine Publikation von
speicherguide.de GbR Karl Fröhlich, Engelbert
Hörmannsdorfer, Ulrike Rieß
Redaktion:
Karl Fröhlich, Ulrike Rieß
Auf der Grün 8, D-83714 Miesbach
Tel. 080 25/51 79, Fax: 080 25/51 71
E-Mail: redaktion@speicherguide.de
Schlussredaktion:
Christoph Busch, Brigitte Scholz
Chefredaktion, Konzept:
Karl Fröhlich (verantwortlich für den
redaktionellen Inhalt)
Tel. 089/740 03 99, Fax: 089/740 03 98
E-Mail: redaktion@speicherguide.de
Oktober 2011
Layout/Grafik:
Uwe Klenner,
Layout und Gestaltung,
Rittsteiger Str. 104, 94036 Passau,
Tel. 08 51/9 86 24 15
www.layout-und-gestaltung.de
Titelbild: iStockphoto.com
Mediaberatung:
Claudia Hesse, Tel. 00 41 41/761 32 47
E-Mail: media@speicherguide.de
Webkonzeption und Technik:
Günther Schmidlehner
E-Mail: webmaster@speicherguide.de
Urheberrecht: Alle in »storage-magazin.de«
erschienenen Beiträge sind urheberrechtlich
geschützt. Alle Rechte (Übersetzung,
Eine Publikation von speicherguide.de
Zweitverwertung) vorbehalten. Reproduktion,
gleich welcher Art, sowie elektronische
Auswertungen nur mit schriftlicher
Genehmigung der Redaktion. Aus der
Veröffentlichung kann nicht geschlossen
werden, dass die verwendeten Bezeichnungen
frei von gewerblichen Schutzrechten sind.
Haftung: Für den Fall, dass in »storagemagazin.de« unzutreffende Informationen
oder Fehler enthalten sein sollten, kommt
eine Haftung nur bei grober Fahrlässigkeit der
Redaktion oder ihrer Mitarbeiter in Betracht.
speicherguide.de
storage-magazin.de
4 Datenspeicherung
Einkaufsführer Storage
Pimp my Storage!
Neue Technologien für
mehr Speicherleistung
Mit dem flächendeckenden Einsatz von SSDs, schnellen SAS-Medien, durchsatzstarken
Verbindungen sowie Funktionen wie Space-Reclaim, MAID oder Tiering optimieren
Hersteller nun ihre Produkte. Doch was bringt das »pimp my storage«?
[ Ulrike Rieß ]
Leistungsstärker, anpassbarer und effizienter sollen die Speichersysteme von heute sein. Nicht zuletzt deshalb, weil sich
gerade im Zuge vermehrter Servervirtualisierung im Frontend kaum noch überschauen lässt, welche Anforderungen das
an das Backend stellt, also an das Speichernetzwerk. Viele Unternehmen und
IT-Abteilungen setzen mit viel Elan eine
Konsolidierung ihrer Server um, VMware
macht es möglich, und müssen erschreckt
feststellen, dass Backup-Szenarien, Netzwerk und Speichersysteme nicht auf die
daraus resultierenden Leistungsabfragen
vorbereitet sind. Selbst wer nachgerüstet
hat, kann nicht mit Gewissheit sagen, was
ihm seine IT-Umgebung morgen abverlangt. Um hier nicht in eine endlose Investitionsschleife und historisch anmutendes Boxen-Stapeln im Rechenzentrum
(RZ) zu geraten, braucht und verlangt der
Speichersuchende Lösungen, die ihm
eben diese Flexibilität und Skalierbarkeit
gewährleisten.
Die Hersteller ihrerseits haben die Not
der RZ-Verantwortlichen erkannt und
müssen Speicher nicht einmal neu erfinden, um zumindest einen Großteil der
Erwartungen zu erfüllen. Oftmals reichen
kleine »Facelifts« oder Upgrades der Systeme aus, sei es nun in Hardware oder
Funktionalität. Steht dahinter noch eine
speicherguide.de
sinnvolle und langfristige Strategie kommt
storage-magazin.de
König Kunde auf seine Kosten. Hier ein
kleiner Überblick, womit die Hersteller seit
neuestem ihre Lösungen pimpen und
auch noch pimpen werden, damit heutige
Investitionen seitens des Anwenders nicht
gleich morgen verpuffen.
SSD & Co: Auf die Platte
kommt es an
Nach der Vorherrschaft der FC-Disks, insbesondere im Enterprise-Bereich, ist dieses Medium ins Hintertreffen geraten und
die SATA-Platte hat ihren Siegeszug erfolgreich durchgesetzt. Das reicht aber
nicht, was die Performance-Anforderungen vieler Speicherumgebungen angeht.
Und so greifen nach dem anhaltenden
Preisverfall der hoch performanten SSDs
(Solid-State-Disks) immer mehr Hersteller
ins Regal der Flash-Speicher und rüsten
damit ihre Systeme zusätzlich aus. Denn
nur im Mix machen SSDs wirklich Sinn.
Da sie meist noch schwach auf der Kapazitätsbrust sind, beliebte Formate sind
hier 100 und 200 GByte, ist es wenig
sinnvoll ein 24-Slot-Gerät nur mit solchen
Medien auszustatten. Und selbst wenn
man auf die Idee käme, ein EnterpriseSystem nur mit SSDs auszustatten, müsste die Anwendung, die dem entgegen
steht, schon eine erheblich I/O-Last produzieren und dies rund um die Uhr, um
so eine Konfiguration wirklich zu rechtfertigen. Zum Leistungsvergleich:
Eine 450-GByte-Disk mit 4-Gbit/s-Inter-
Eine Publikation von speicherguide.de
face und 15.000 U/min kommt auf
einen Durchsatz von 164 MByte/s. Eine
800-GByte-Enterprise SSD mit 6-Gbit/sSAS-Anschluss kommt auf 370 MByte/s
bzw. auf 600 MByte/s bei der I/O- Transferrate. Da lacht die transaktionsreiche
Datenbank und muss erst einmal dagegen anschreiben. Die SSD-Medien sind
vor allem nützlich, wenn Sie mit anderen
Medien, beispielsweise SAS- und/oder
SATA-Medien in einem System gemischt
zum Einsatz kommen. Dann kann man
mit Storage-Tiering das jeweilige Array
optimal und den Anwendungsgegebenheiten entsprechend nutzen, was wiederum Investitionsschutz bietet. Allerdings
ist noch zu erwähnen, dass SSDs zwar
preislich attraktiver geworden sind, bei
der Lebensdauer aber noch nicht mit anderen Formaten mithalten können – übrigens auch ein Grund, warum meist
Single-Cell-SSDs ihren Weg in die Systeme
finden. Multi-Cell-Flash-Speicher ist einfach noch anfälliger. Auch aus diesem
Grund verbietet sich eigentlich ein rein
auf SSDs ausgelegtes Gerät. Ausnahmen
bestätigen auch hier die Regel, Hersteller
wie Violin Memory sind hier einsame
Vorreiter, die solche Produkte herstellen
und sowohl SLC- als auch MLC-Drives
verbauen. Mit weiter steigender Qualität
der SSDs und ebenso weiter fallenden
Preisen, werden wir auf dem Markt aber
noch mehr solcher Lösungen in Zukunft
sehen.
Oktober 2011
Einkaufsführer Storage
Quelle: Kingston
Datenspeicherung
SSDs bringen bessere Performance und
die Möglichkeit des Storage-Tierings.
aus verschlankt sich auch das Format der
Festplatten, immer mehr 2,5-Zoll-SATAMedien drehen sich in den Gehäusen.
Neben einer höheren Speicherdichte hat
das den netten Nebeneffekt, dass diese
Platten weniger Strom verbrauchen. Wer
also umrüstet oder neu kauft, kann bei
der Jahresnebenkostenabrechnung auf
positive Effekte hoffen.
FC und Ethernet: Erhöhter Puls
im Netzwerk
Darüber hinaus kommen weitere mehr
oder weniger neue Plattentypen zum Einsatz, welche die Speicherdichte und auch
die Leistung der Systeme erhöhen. Da ist
zunächst die neue Generation an SASDrives zu nennen, die jetzt nach langem
Warten endlich auch mit 15.000 U/min
rotiert und somit den FC-Brüdern in nichts
mehr nachsteht. Die SATA-Verwandtschaft hat hingegen zuletzt ein Kapazitäts-Upgrade erfahren. Nachdem sich die
1,5-TByte-Platte nie wirklich etablieren
konnte, hat die 2-TByte-Disk allerorts Einzug gehalten und wird nun vom 3-TByteLaufwerk abgelöst, langsam, aber stetig.
Das Schöne hierbei: Das Pimpen des Arrays kann einfach über ein Software- bzw.
888
Firmware-Upgrade
erfolgen und schon
???????????????
steht dem IT-Verantwortlichen 50 Prozent
mehr Speicherkapazität auf der gleichen
Raumfläche zur Verfügung. Darüber hin-
Natürlich nutzt der beste Speicher nichts,
wenn das Netzwerk hinterherhinkt. Da
können die Platten noch so schnell rennen, wenn nicht reichlich Daten ankommen, kann das Medium auch nicht seine
volle Leistung zeigen. Und wenn zu viele
Daten über eine zu dünne Leitung fließen,
dann endet dies oft in einer Verstopfung,
sprich in einem Flaschenhals und mit Leistungseinbußen. Sicher könnte man die
Bilanz durch eine erhöhte Port-Zahl ausbessern, schöner ist es, wenn man schon
mit Bordmitteln schneller ist als die Polizei
erlaubt. Auch hier gibt es derzeit zwei
Tendenzen, die das Speichersystem auf
Trab bringen. Nach einer fast endlos
scheinenden Zeit des 1-Gbit/s-EthernetTransfers – man mochte schon kaum an
eine Evolution glauben – werden nun
vermehrt und flächendeckend 10-Gbit/sEthernet-Karten verbaut. Zwar ist auch
hier die Verbreitung etwas träge, aber in
Fachhändler für Storage-Systeme
Zukunft wird dies eher der Anschluss der
Wahl. Ebenso sieht das in der Fibre-Channel-Umgebung aus. Die schießt sich gerade auf schnelle 8-Gbit/s-Verbindungen
ein, auch wenn hier die nächste Generation mit 16 Gbit/s schon in den Startlöchern steht. Diese Verzehnfachung
(Ethernet) bzw. Verdoppelung (FibreChannel) der Bandbreiten macht es möglich, dass sich die Speichersysteme an
einer virtuellen Welt im Frontend nicht
gleich verschlucken.
Funktionen sind der Turbo für
den Speicher
Aber Hardware ist nicht alles, um existierenden Speicher auf Tuner-Art aufzubohren. Mit den richtigen Software-Funktionen bringt der geplagte IT-Manager
Schwung in die Boxen bzw. kann er sie
optimiert ausnutzen. Wie bereits oben
erwähnt bietet sich bei Systemen mit einer gesunden Festplattenmischung ein
Storage-Tiering an. Dabei kommen Daten, auf die viel zugegriffen wird, beispielsweise auf die heißen SSD-Renner.
Etwas unbeliebtere Datenkollegen landen
auf günstigeren SATA-Drives. Da sich dieser Zustand aber ändern kann, gibt es
Automatismen, die so genannte »Hot
Einkaufsführer
Storage
Spots«
auf der SATA-Platte
erkennen, also
wachsende Zugriffszahlen auf einem Bereich, und diese dann an den fitten FlashKollegen weiterleiten. Umgekehrt be-
E-Company
Kastanienallee 22, 14052 Berlin
Tel. 030/308 83 80
Fax 030/30 88 38 30
E-mail: kontakt@ecompany.ag
www.ecompany.ag
Comline Computer +
Softwarelösungen AG
Leverkusenstraße 54
22761 Hamburg
Tel. 040/51 12 10
Fax 040/51 12 11 11
info@comlineag.de
www.comlineag.de
TargoSoft IT-Systemhaus GmbH
Amsinckstraße 65, 20097 Hamburg
Tel. 040/235 12 20
Fax 040/23 51 22 40
info@targosoft.de,
www.targosoft.de
Probusiness Hamburg AG
Elbberg 6b, 22767 Hamburg
Tel. 040/18 88 28-0
Fax. 040/18 88 28-28
hamburg@probusiness.de
www.probusiness.de/classic/
Godyo AG
Prüssingstraße 35, 07745 Jena
Tel. 036 41/28 70
Fax 036 41/28 72 87
marketing@godyo.com
www.godyo.com
Traffix Network Partner GmbH
Barmbeker Strasse 10,
22303 Hamburg
Tel. 040/682 87 20
Fax 040/68 28 72 50
sales@traffix.de, info@traffix.de
www.traffix.de
Basys EDV-Systeme GmbH
Hermine-Seelhoff-Straße 1,
28357 Bremen
Tel. 04 21/ 434 20 0
Fax 04 21/491 48 33
www.basys-bremen.de
Netline
Philipp-Reis-Straße 2a
37075 Göttingen
Tel. 05 51/50 73 70
Fax 05 51/507 37 20
www.netline-gmbh.de
Dialog Computer Systeme
GmbH
Helmholtzstraße 2-9, 10587 Berlin
Tel. 030/390 70 90
Fax 030/391 70 06
info@dcs.de, www.dcs.de
Antauris AG
Moorfuhrtweg 17
22301 Hamburg
Tel. 040/22 74 43 00
Fax 040/22 74 43 11
info@antauris.de, www.antauris.de
DTS Systeme GmbH
Schrewestraße 2
32051 Herford
Tel. 052 21/101 30 00
Fax 052 21/101 30 01
info@dts.de
www.dts.de
PDV-Systeme GmbH
Dörntener Straße 2 A, 38644 Goslar
Tel. 053 21/370 30
Fax 053 21/37 03 89 24
E-Mail: info@pdv-systeme.de
www.pdv-systeme.de
SHD
System-Haus-Dresden GmbH
Drescherhäuser 5b, 01159 Dresden
Tel. 03 51/423 20
Fax 03 51/423 21 00
info@shd-online.de
www.shd-online.de
0
Interface business GmbH
Zwinglistraße 11/13, 01277 Dresden
Tel. 03 51/31 80 90
Fax 03 51/336 11 87
info@interface-business.de
www.interface-business.de
1
Oktober 2011
2
5
Probusiness Enterprise
Consulting GmbH & CO.KG
Rathenaustr. 13 - 14
30159 Hannover
Tel. 05 11/600 66-0
Fax 05 11/60 06 61 55
consulting@probusiness.de
www.probusiness.de/enterpriseconsulting/
Janz Informationssysteme AG
Im Dörener Feld 8, 33100 Paderborn
Tel. 052 51/155 00
Fax 052 51/155 01 90
www.janz-it.de
3
Eine Publikation von speicherguide.de
Fortsetzung auf Seite 8
speicherguide.de
storage-magazin.de
6 Datenspeicherung
Foto: EMC Data Domain
Einkaufsführer Storage
Früher nur als Appliance
erhältlich, mittlerweile auch
eine Software-Funktion:
Deduplizierung.
merkt diese Funktion auch nachlassendes
Interesse an Blöcken auf den SSDs. Erfolgt
zum Beispiel seit 30 Minuten kein Zugriff
mehr, der Wert lässt sich variabel einstellen, dann verschwindet dieser Datensatz
im SATA-Speicher. Durch das Verschieben
je nach Zugriffszahlen muss der Speicherbeauftrage nicht hektisch Platten oder
gar Boxen ins Rechenzentrum stellen, um
mehr Performance oder mehr Speicher
für den Fall aller Fälle bereit zu halten. Die
Medien werden optimal genutzt und erst,
wenn der übliche 90-Prozent-LastSchwellwert erreicht ist, muss er an Erweiterung denken.
Mit Thin-Provisioning und Zero-SpaceReclaim stehen Automatismen zur Verfügung, die eine Auslastung des Geräts
auch ohne Tiering schon verbessern können. Beim Thin-Provisioning wird einem
Volume virtuell mehr Speicher angewiesen, als es wirklich erhält. Realer Speicher
wird erst verteilt, wenn es zum Schreibvorgang kommt. Damit lassen sich Ressourcen-Verteilungen zum Einen für die
Abrechnung sauber aufteilen, zum Anderen verschenkt man keinen Platz, da
nur in Anspruch genommen wird, was
die Anwendung wirklich braucht. Früherer Nachteil: wurde etwas gelöscht, verblieb der wieder frei gewordene Speicherplatz ungenutzt in dem Volume. Hier
schafft Zero-Space-Reclaim Abhilfe. Denn
diese Funktion sucht nach den Null-Blöcken, sammelt sie ein und gibt sie wieder
zur freien Verfügung. Manueller Aufwand
fällt weg und das System hat immer die
reelle Kapazität zur Verfügung. Des Weiteren sorgt Deduplizierung für schlank
genutzte Speicher-Arrays. Früher nur als
Applikation erhältlich, gibt es diese Funktion nun schon als Software oder direkt
im Speichersystem integriert. Hier sorgt
ein spezielles Eliminierungsverfahren dafür, dass redundante Blöcke entfernt und
einzigartige in den Speicher gelangen.
Die Einsparungsfaktoren können hier bis
speicherguide.de
zu gegen 50 und höher gehen, bei Soft-
storage-magazin.de
ware-Lösungen ist dieser Wert vielleicht
nicht ganz so hoch wie bei der Hardware.
oben genannten Ansätze zu Realität werden lassen.
MAID und mehr: Strom sparen
Virtualisierung kommt nicht
aus der Mode
Wer weiter und umweltfreundlicher
denkt, kann zudem auf die MAID-Technologie zurückgreifen – quasi der E-Motor
oder die Motorabschalttechnik an Ampeln für Speichergeräte. Bei dieser Methode werden wenig genutzte Festplatten
– auch nach einem vorher festgelegten
Zeitwert – heruntergefahren und in
Stand-by-Modus versetzt. Das spart
Strom, vor allem wenn die Zugriffe nur
sehr unregelmäßig und eher verhalten
sind. Der Nutzer vorm PC oder Server
merkt indes nichts davon. Greift er auf
eine Datei zu, so fährt das Medium wieder
an und ist normal abzurufen. Haupteinsatzgebiet sind SATA-Arrays. Neben der
Stromeinsparung spart man sich auch die
Kühlung, denn Platten, die nicht rotieren,
erzeugen keine Hitze (und noch weniger
Lärm).
Cloud: Neue Architekturen
für die Wolke
Beim Thema Cloud, das nun Superlative
an Flexibilität, Effizienz und Auslastung
verspricht, reicht einfaches »anbauen«
nicht aus. Hier muss schon richtig geschraubt werden, damit der Speicher fit
für die Wolke wird. Scale-Out, Grid-Storage, Unified-Storage und vor allem Virtualisierung heißen die Zauberworte hier
– ähnlich dem Bi-Turbo oder Kompressor
in der Motorenbranche. Scale-out soll für
Skalierbarkeit auf unterschiedlichen Ebenen und je nach Bedarf sorgen (Performance, Kapazität, Konnektivität), auch
unabhängig voneinander. Grid-Storage
sieht ähnliches vor. Unified Storage möchte alle verschiedenen Technologien der
Speicherwelt unter einem Dach vereinen,
meistens Block- und File-Protokoll. Und
Virtualisierung ist die treibende Kraft, die
die Cloud erst ermöglicht. All diesen neuen Ansätzen ist gleich, dass es letztlich
um eine globale und transparente Verteilung von Ressourcen gehen soll, die dem
Endanwender, IT-Manager, Großunternehmen oder Apple-Produkt-Nutzer immer die Leistung und Kapazität zur Verfügung stellt, die er momentan braucht.
Und noch schöner wäre es, wenn sich
dies dementsprechend abrechnen ließe.
Nach zwei Jahren steht die Branche
noch immer am Anfang, aber kommt
langsam in Fahrt. Derzeit stellen viele Hersteller ihre Architekturen vor, welche die
Eine Publikation von speicherguide.de
Bei der Virtualisierung muss man deutlich
zwischen der im Server- und der im Storage-Bereich unterscheiden. Beides ist
möglich, beides ist machbar. Allerdings
hat sich die Server-Virtualisierung in den
letzten fünf Jahren so rasant durchgesetzt, dass die Speicherbranche von diesen Umsetzungszahlen nur träumen kann.
So langsam kommen aber Anbieter und
Speichersuchende darauf, dass es doch
wohl eine ganz tolle Idee wäre, wenn man
beide virtuellen Welten unter ein Dach
bringt und optimal nutzen kann. Viele
Vorteile einer Serverkonsolidierung gehen
nämlich durch ineffektiven Speicher verloren. Hitachi Data Systems macht es
hier vor und zeigt mit seiner »VPS« eine
reelle End-to-End-Lösung, die sich in unterschiedlichen Tiefen skalieren lässt,
Server-Virtualisierung tief integriert und
alle Funktionen systemübergreifend nutzbar macht. In diese Richtung wird es wohl
gehen, denn nur so profitiert man von
den Vorteilen der Virtualisierung, beim
Server sowohl als auch beim Speicher.
Wer Speicher einfach
verwaltet ist König
Nicht zuletzt erfahren wir ein Umdenken
beim Verwalten von Speichern und Daten. Wenn sogar EMC von seiner Command-Zeile ablassen kann und ein App
für die »VNXe« hervorzaubert, dann deuten alle Zeichen auf einfaches Management hin. Das Optimum wäre natürlich
eine zentrale Oberfläche, die einen
zentralen Speicher-Pool konfigurierbar,
überwachbar, analysierbar und wartbar
macht.
Fast alle Anbieter, angefangen von
EMC über Hewlett-Packard, HDS, IBM
oder NetApp, versuchen sich derzeit daran. Oft ist die Einbindung von Fremdspeicher ein Problem, aber HDS und HP
haben hier schon gute Lösungen vorzuweisen. Diese Software-Sparte wird nun
zur Königsdisziplin. Das haben alle erkannt. Hier können wir in Kürze sicher
auch noch mehr Upgrades und Angebote erwarten, die dann die Bedienung des
Speichersystems pimpen. Und das wird
letztlich den größten Ausschlag geben,
denn was nutzt einem ein PS-starker Bolide, wenn man die Leistung nicht auf die
Straße bringt.
Oktober 2011
Einkaufsführer Storage
Datensicherung
7
Marktübersicht Tape-Librarys
Backup: Kosten versus
Sicherheit und Verfügbarkeit
Für Magnetbänder spricht eine lange Lebensdauer und Haltbarkeit von bis zu 30 Jahren.
Auch bei den Betriebskosten punkten Tape-Librarys im Vergleich mit Disk-Backup-Systemen.
Eine durchdachte Datensicherungsstrategie kombiniert beide Welten und nutzt Bänder als
Auslagerungsmedium und zur Langzeitarchivierung.
[ Karl Fröhlich ]
Selbst für Experten sieht es so aus, als ob
nur noch Disk-Backup zur primären Datensicherung in Frage kommt. Vor allem
die Daten-Deduplizierung hat Schwung
in das Segment gebracht und den Einsatz
von traditionellen Tape-Librarys verändert
bzw. überflüssig gemacht. Allerdings
lassen sich damit alle Anforderungen adressieren: »Dedup eignet sich nicht für
komprimierte Dateiformate bzw. verschlüsselte Daten«, sagt Rocco Frömberg, Produktmanager bei TIM. »Letztlich stellt sich oft die Frage nach Kosten
versus Sicherheit und Verfügbarkeit der
Daten. Für ihr Backup und Archiv beantworten dies viele Firmen weiterhin mit
Tape Automation, oft kombiniert mit
smarten, neuen Lösungen.«
»In vielen Anwendungen ist tatsächlich
ein Disk-System vorgeschaltet, wobei die
Daten anschließend auf Tape gespeichert
werden – ein klassisches Backup-to-Diskto-Tape (B2D2T)«, erklärt Andreas Hellriegel, Sales Director CEE bei Tandberg
Data. »Für einen Großteil der Unternehmen ist diese Lösung praktikabel und
sinnvoll. Allerdings gibt es Anwendungen
wie den Audio-Video-Bereich, die durchaus Tape-Librarys als primäres BackupSystem einsetzen. Dort sind viele große
einzelne Dateien zu finden, die auf Band
mit hoher Geschwindigkeit gesichert werden können. Tapes sind zuverlässig, austauschbar und weisen nach wie vor die
Oktober 2011
geringsten Speicherkosten pro GByte
bzw. TByte auf.«
Tape-Librarys für Backup und
Archivierung
»Ein Argument für Tape ist, dass die Budgets der Firmen nur schwer Schritt halten,
mit den massiven Datenwachstum«, sagt
Robert Guzek, Eternus Business Management Germany bei Fujitsu Technology Solutions. »Experten gehen hier
von einer Vervielfachung im Faktor 17 alle
zehn Jahre aus. Gemäß eine Studie der
Horison Information Strategies, liegt
bei der genannter Einsatzweise eine Preisdifferenz zwischen Tape und Disk von fast
50 Prozent vor.« Ein weiteres gewichtiges
Argument sind die Betriebskosten: Trotz
zunehmenden Eco-Mode bei Disk kann
ein Tape zu überaus großen Einsparungen
bei den Energiekosten beitragen, wenn
Firmen in der Vergleichsrechnung Strom
und Klimakosten berücksichtigen. Je nach
Konstellation sei laut Guzek ein Faktor
von bis zu 290 erreichbar: »Tape ist ein
Paradebeispiel für Green-IT. Bei Aufbewahrungsfristen bieten Bänder erhebliche
Vorteile, neben der längeren Standzeit
der Systeme (Faktor 2 - 3) und der damit
verbunden besseren TCO, liegt die Lebensdauer der Daten (»max shelf life«)
bei Tape 30 Jahren, gegenüber zehn Jahre bei Disk.«
»Für Tape spricht natürlich die Kapazität, die es im Vergleich zu Festplatten
erlaubt, deutlich mehr Daten zu spei-
chern«, argumentiert Andy Walsky, VP
EMEA bei Overland Storage. »Darüber
hinaus ist die Technologie zukunftssicher,
da die Entwicklung von LTO (Linear-TapeOpen) weiter voranschreitet. LTO-6 wird
in 2012 kommen und LTO-8 ist schon in
der Planung. Auch der Platzbedarf pro
Quadratmeter im Data Center ist gering,
da 500 Kassetten bereits ein PByte Kapazität zur Verfügung stellen.«
»Das Medium Tape ist dabei eine Renaissance zu erleben« behauptet Kurt
Gerecke, Certified Senior Storage
Consultant bei IBM, »weil es gelungen
ist, GMR-Technik in die Laufwerke zu adaptieren. Das ergibt mit Dünnfilmbeschichtungen auf der Kassette die Möglichkeit, riesige Kapazitäten auf dem
Bandmedium abzuspeichern. Das Datenwachstum ist vor allem im Archivierungsbereich riesig. Dort werden hoch kapazitive Datenträger, die vor allem keinen
Strom benötigen, gebraucht.«
Kaufkriterien für Bandbibliotheken
Für TIM-Manager Frömberg lauten die
klassischen Vorteile einer guten Tape-Library: »Große Kapazität bei kleiner Stellfläche, Robustheit, einfache Skalierbarkeit, die Möglichkeit zur Datenauslagerung
und niedrige Anschaffungs-/Betriebskosten erhalten und kombiniert diese geschickt mit neuen Funktionen, die der
geänderten Rolle im Datensicherungskonzept der Unternehmen gerecht werspeicherguide.de
den. Wie bei
vielen anderen Storage-
Eine Publikation von speicherguide.de
storage-magazin.de
8 Datensicherung
Einkaufsführer Storage
Lösungen findet die Weiterentwicklung
heute fast ausschließlich bei der Firmware/Software statt.« Für Firmen lohne sich
daher ein genauer Blick auf die LibraryEigenschaften, abseits der Anzahl von
Slots/Laufwerken. Daneben gibt es viele
hilfreiche Funktionen, wie eine Überwachung mit proaktiven Warnhinweisen,
Verschlüsselung, Zugriffsrechte-Management, Daten-Replikation für den Aufbau
eines Archivs und Media-Handling.
»Eine Tape-Library sollte heute einen
kleinen Einstieg darstellen und dann in
große Kapazitäten skalierbar sein«, ergänzt IBM-Manager Gerecke. »Wegen
des Wachstums in Archivierungsumgebungen, bieten Systeme die Möglichkeit,
möglichst viele Kassetten-Slots auf kleinstem Raum unterzubringen. Wenn entsprechende Leistungsanforderungen existieren, sollte der Zugriff auf die Kassetten
möglichst schnell vonstattengehen. Dazu
ist ein entsprechend schnelles Robotersystem notwendig, das möglichst mit
einem Doppelgreifer ausgestattet ist.«
Zudem ist ein gutes Reporting-System
wünschenswert, welches alle Vorgänge
in der Library protokolliert. Wichtig ist
auch, dass der Bandroboter redundant in
die vorhandene Infrastruktur (z.B. eines
SANs) eingebunden werden kann, sodass
die Library auch bei fehlenden Pfaden
oder Switchen weiterarbeitet.
»Heutige Produkte sollten einfach zu
installieren und zu warten sein«, ergänzt
Fujitsu-Manager Guzek. »Einstiegssysteme sollten sich von den IT-Abteilungen
Einkaufsführer
Storage
selbst
in Betrieb nehmen lassen.
Dies gilt
auch für nötige Kapazitätserweiterungen.
Die Enterprise-Klasse setzt eine komplet-
te Redundanz voraus. Dazu zählen, neben
der Intelligenz und Stromversorgung,
auch die Fahrstraße. Weiter sind »hotreplaceable Robots« und ein unterbrechungsfreies Aufrüsten der Kapazität
wünschenswert. Neben den Librarys sind
Laufwerke eine wichtige Komponente:
Laufwerke wie ein »T10000« von Oracle
stellen in verschiedenen Szenarien eine
sehr sinnvolle Alternative zu den Standard
LTO-Drives dar.
Unterscheidung – Einstieg,
Midrange, Highend
Die verschiedenen Größenordnungen
unterscheiden sich primär in den vorhandenen Schnittstellen sowie der Anzahl an
Laufwerken und Stellplätzen. »Für den
Einstiegsbereich kommen zumeist Autoloader zum tragen«, sagt Tandberg-Manager Hellriegel. »Diese sind in der Regel
mit einer SAS-Schnittstelle sowie einem
Laufwerk ausgestattet und fassen bis zu
acht Medien.« Als Bandformat findet sich
in diesem Segment zumeist LTO-3 oder
LTO-4. Die Schnittmenge zum Midrange
bilden beispielsweise Geräte mit LTO5-Bändern mit einer Kapazität von bis zu
60 TByte. Generell steigert sich im Midrange Bereich natürlich die maximal mögliche Geschwindigkeit, Kapazität und der
Funktionsumfang. Hier finden sich skalierbare Librarys, in der Regel mit bis zu
zwei Bandlaufwerken (LTO-4/LTO-5) und
zwölf bis 24 Medienslots.
»Highend-Librarys müssen von hunderten bis zu tausenden Bandstellplätzen
skalieren und die Möglichkeit bieten,
mehrere hundert Tape-Drives zu unterstützen«, erläutert TIM-Manager Fröm-
Fortsetzung von Seite 5
Fachhändler für Storage-Systeme
ADA – Das Systemhaus GmbH
Siemensring 54-56, 47877 Willich
Tel. 021 54/490 90
Fax 021 54/49 09 81 11
info@ada.de, www.ada.de
4
Ascad GmbH
Harpener Heide 7, 44805 Bochum
Tel. 02 34/959 40
Fax 02 34/959 42 00
info@ascad.de, www.ascad.de
Sievers-SNC
Hans-Wunderlich-Str. 8,
49078 Osnabrück
Tel. 05 41/949 30
Fax 05 41/949 32 50
www.sievers-group.com
speicherguide.de
storage-magazin.de
Computacenter AG & Co. OHG
Europaring 34-40,
50170 Kerpen
Tel. 022 73/59 70
Fax 022 73/59 71 300
E-Mail:
communications.germany@
computacenter.com
www.computacenter.de
5
Modular Computer Systems
GmbH
Oskar-Jäger-Straße 50,
50825 Köln
Tel. 02 21/954 46 60
Fax 02 21/95 44 66 99
info@modcomp.de
www.modcomp.de
Eine Publikation von speicherguide.de
berg. »Die Anforderungen an die Zuverlässigkeit, die Verfügbarkeit und den
Service sind für diese Systeme sehr viel
höher – auch weil sie eine riesige Datenmenge vorhalten.« Zudem setzen IT-Verwalter Management-Funktionen wie die
Überwachung von Subsystemen, FehlerReporting, SAN-Port-Failover und die Integration mit Framework-Tools voraus.
Markt und Entwicklung
»Für große Systemumgebungen wird
Band weiter das günstige Medium bleiben«, erwartet Fujitsu-Manager Guzek.
»Bei Tape ist rund alle zwei Jahre eine
Halbierung des Preises pro GByte zu erwarten. Weiter ist mit steigenden Kapazitäten bei den Medien zu rechnen, in den
nächsten Jahren sind Bänder mit Kapazitätsgrößen bis 32 TByte möglich.« Auch
werde die Datentransferrate weiter zunehmen. Anwendungstechnisch sei zukünftig eine zunehmende Segmentierung
in vier Kategorien zu erwarten: Disk-Archiv und Backup, Tiered-Backup, TieredArchive und Deep-Archive. Die drei erst
genannten realisiert Fujitsu beispielsweise
bereits heute schon mit seiner »ETERNUS
CS«. Ein Deep-Archiv besteht aus einer
Bandlösung und ECM (Enterprise-Content-Management).
Im Einstiegssegment und auch selektiv
im Midrange wird Tape in den nächsten
Jahren rückläufig sein. Dort hält Deduplikation verstärkt Einzug. »Im EnterpriseSegment ist weiter mit Wachstum zu
rechnen«, sagt Guzek. »Als Ausblick auf
889
das Jahr 2014
ist zu erwarten, dass Tape
??????????????
die 1-Cent-Grenze (US-Dollar) pro GByte
erreichen wird.«
Kramer & Crew GmbH
Stolberger Straße 5, 50933 Köln
Tel. 02 21/954 24 30
Fax 02 21/95 42 43 20
crew@kramerundcrew.de
www.kramerundcrew.de
Lanware Computer GmbH
Eifelblick 19, 53619 Rheinbreitbach
Tel. 022 24/988 91 55
Fax 022 24/98 89 161
info@lanware-computer.de
www.lanware-computer.de
Datagroup Köln GmbH
Schanzenstraße 30, 51063 Köln
Tel. 02 21/96 48 60
Fax 02 21/96 48 62 00
koeln@datagroup.de
www.datagroup.de
PDV-Systeme AZ1 GmbH
Unnaer Str. 31a, 59439 Holzwickede
Tel. 02301/1849464
Fax 02301/1849466
http://ifair-extra.az1.de/
H & G, Hansen & Gieraths GmbH
Bornheimer Straße 42-52,
53111 Bonn
Tel. 0228/ 9080 700
Fax: 0228/9080 405
info@hug.de
www.hug.de
Systrade GmbH
Norsk-Data-Straße 1
61352 Bad Homburg
Tel.06172/8555 0
Fax06172/8555 444
info@systrade.de
www.systrade.de
6
Fortsetzung auf Seite 26
Oktober 2011
Olympus setzt
sein StorageManagement
mit Fujitsu in
ein neues Bild
»Mit ETERNUS DX bietet Fujitsu eine überzeugende Lösung
für unsere hohen Ansprüche an Zuverlässigkeit, Performance
und Wirtschaftlichkeit im Storage-Management.«
Hartmut Hahn, General Manager Information Systems,
Corporate Division, Olympus
Olympus hat der Welt das erste Endoskop beschert, entwickelt wegweisende Kameratechnik und
ermöglicht tiefgreifende Erkenntnisse mit führender Mikroskopie: Innovationskraft, die rund um
den Globus stattliches Umsatzwachstum generiert – und Petabytes von Daten produziert. Olympus
lenkt den Strom dieser Daten mit Fujitsu in die Bahnen einer zuverlässigen und sicheren Speicherung.
Altgediente Plattenspeicher wurden im laufenden Betrieb durch modernste ETERNUS Storage-Technologie
von Fujitsu abgelöst. Olympus setzt damit neue Maßstäbe für ein Storage-Management, das sowohl aus
dem Blickwinkel der Zuverlässigkeit als auch der Wirtschaftlichkeit überzeugt.
http://de.fujitsu.com/referenzen-in-deutschland
10 Datensicherung
Einkaufsführer Storage
Marktübersicht Tape-Librarys
Hersteller
Actidata
www.actidata.com
Cristie Data Products
www.cristie.de
Fujitsu Technology
Solutions
de.ts.fujitsu.com/storage
IBM
www.storage.ibm.de
Produktname
Bandformat
Max.
Tape-Slots
Max.
Tape-Drives
Kapazität
native (TByte)
Transferrate native
Formfaktor
Nettopreis (Euro)
actiLib Library 2U
actiLib Library 4U
actiLib Library 8U
actiLib Library 8U
GigaStream T24L
GigaStream T48L
GigaStream T8L
GigaStream T96L
Eternus LT40 S2
Eternus LT40 S2
Eternus LT60
Eternus LT60
Eternus LT60
TS3100
TS3200
TS3310
TS3500
LTO-5
LTO-5
LTO-4
LTO-5
LTO-3, LTO-4, LTO-5
LTO-3, LTO-4, LTO-5
LTO-3, LTO-4, LTO-5
LTO-3, LTO-4, LTO-5
LTO-4
LTO-5
LTO-3, LTO-3 WORM
LTO-4, LTO-4 WORM
LTO-5, LTO-5 WORM
LTO-3, LTO-4
LTO-3, LTO-4
LTO-3, LTO-4
LTO-1, LTO-2, LTO-3, LTO-4,
TS1120, 3592, TS1130
LTO-4
LTO-5
LTO-4
LTO-5
LTO-5
LTO-4
LTO-5
LTO-5
LTO-4, LTO-5
LTO-4 HH , LTO-5 FH
LTO-4, LTO-5
LTO-4 HH , LTO-5 FH
LTO-4, LTO-5
LTO-4
LTO-4
LTO-5
LTO-4
LTO-5
LTO-4
LTO-5
LTO-4
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
LTO-4, LTO-5
24
48
96
96
24
48
8
96
24
24
48
48
48
24
48
k.A.
k.A.
2
4
4
4
2
4
1
4
2
2
4
4
4
2
4
k.A.
k.A.
38,4
76,8
76,8
153,6
36
72
12
144
19,2
38,4
19,2
38,4
76,8
17,6
35,2
316,8
80.000
504 GByte/h
504 GByte/h
432 GByte/h
504 GByte/h
1 TByte/h
2 TByte/h
0,5 TByte/h
2 TByte/h
432 GByte/h
504 GByte/h
216 GByte/h
288 GByte/h
504 GByte/h
864 GByte/h
1.728 GByte/h
7,8 TByte/h
1.728 TByte/h
2U Rackmount
4U Rackmount
8U Rackmount
8U Rackmount
2U Rackmount
4U Rackmount
1U Rackmount
8U Rackmount
2U Rackmount
2U Rackmount
4U Rackmount
4U Rackmount
4U Rackmount
2U Rackmount
4U Rackmount
5U Rackmount
Floorstand
ab 5.590
ab 8.200
ab 11.200
ab 12.780
ab 4.490
ab 6.490
ab 3.090
ab 11.490
ab 4.870
ab. 4.390
ab 2.350
ab 5.500
ab 9.650
ab 3.891 (o. Drive)
ab 7.301 (o. Drive)
ab 26.136 (o. Drive)
ab 49.298 (o. Drive)
9
9
30
30
30
60
60
60
240
24
240
48
500
44
36
36
36
36
44
44
44
50
50
44
44
44
54
54
114
114
11
11
22
22
40
1
1
2
2
2
4
4
4
16
2
16
4
12
2
2
2
2
2
2
2
2
3
3
4
4
4
5
5
5
5
2
2
2
2
2
7,2
13,5
24
45
45
48
90
90
360
36
360
72
750
35,2
28,8
54
28,8
54
35,2
66
35,2
75
75
66
66
66
81
81
171
171
16,5
16,5
33
33
60
120 GByte/s
120 GByte/s
280 GByte/s
280 GByte/s
280 GByte/s
560 GByte/s
560 GByte/s
560 GByte/s
864 GByte/h
1,2 TByte/h
1,7 TByte/h
2,4 TByte/h
5,18 TByte/h
864 GByte/h
864 GByte/h
1 TByte/h
864 GByte/h
1 TByte/h
864 GByte/h
1 TByte/h
864 GByte/h
1.5 TByte/h
1.5 TByte/h
1 TByte/h
1 TByte/h
1 TByte/h
2.5 TByte/h
2.5 TByte/h
2.5 TByte/h
2.5 TByte/h
1 TByte/h
1 TByte/h
1 TByte/h
1 TByte/h
1.008 GByte/h
ab 3.000
ab 3.350
ab 3.670
ab 4.980
ab 4.890
ab 5.160
ab 6.470
ab 6.380
ab 5.900
ab 3.900
ab 11.000
ab 7.500
ab 33.900
ab 7.950
ab 8.640
ab 9.030
ab 7.900
ab 8.180
ab 8.880
ab 9.180
ab 8.080
ab 9.870
ab 10.870
ab 8.480
ab 9.770
ab 8.550
ab 11.680
ab 12.700
ab 14.400
ab 15.420
ab 5.490
ab 6.090
ab 5.860
ab 6.460
ab 6.000
LTO-4, LTO-5
80
5
120
2.520 GByte/h
Scalar i500
LTO-3, LTO-4, LTO-5
409
18
614
9 TByte/h
Scalar i6000
SDLT 600, DLT-S4, LTO-3, LTO-4,
LTO-5
LTO-3, LTO-4
5.322
96
7.983
48 TByte/h
1U Rackmount
1U Rackmount
2U Rackmount
2U Rackmount
2U Rackmount
4U Rackmount
4U Rackmount
4U Rackmount
Rackmount
Rackmount
Rackmount
Rackmount
Standalone
5U Rackmount
5U Rackmount
5U Rackmount
5U Rackmount
5U Rackmount
5U Rackmount
5U Rackmount
5U Rackmount
6U Rackmount
6U Rackmount
5U Rackmount
5U Rackmount
5U Rackmount
10U Rackmount
10U Rackmount
10U Rackmount
10U Rackmount
Floorstand
Floorstand
Floorstand
Floorstand
3U Desktop/
Rackmount
6U Desktop/
Rackmount
5U/14U Desktop/
Rackmount und 23U
Rackmount
Floorstand
50
4
40
max. 576 GByte/h pro Drive
4U Rackmount
ab 3.900
LTO-4, LTO-5
LTO-4/5, STK 9840D,
T10000B/C
LTO-4, LTO-5
LTO-4, LTO-5
24
5.821
2
56
36
29.625
1 TByte/h
48,4 TByte/h
2U Rackmount
Floorstand
ab 5.300
ab 26.300
48
575
4
18
72
862
2 TByte/h
9 TByte/h
ab 7.700
ab 15.500
LTO-4/5, STK 9840D,
T10000B/C
LTO-5
LTO-5
LTO-5
LTO-5
LTO-5
100.000
640
500 PByte
552,9 TByte/h
4U Rackmount
max. 40U
Rackmount
Floorstand
ab 165.000
24
40
77
114
151
2
4
8
12
16
36
60
115,5
171
226,6
1 TByte/h
2 TByte/h
4 TByte/h
6 TByte/h
8 TByte/h
2U Rackmount
4U Rackmount
8U Rackmount
12U Rackmount
16U Rackmount
ab 3.761
ab 5.670
ab 10.947
ab 16.595
ab 21.604
NEC
www.starline.de
T09A2-L4H Autoloader
T09A2-L5H Autoloader
T30A Tape Library
T30A Tape Library
T30A Tape Library
T60A Tape Library
T60A Tape Library
T60A Tape Library
Overland Storage
Neo 2000e
www.overlandstorage.com Neo 200s
Neo 4000e
Neo 400s
Neo 8000e
Qualstar
RLS-8204-L4
www.starline.de
RLS-8236D-L4
RLS-8236D-L5
RLS-8236-L4
RLS-8236-L5
RLS-8244D-L4
RLS-8244D-L5
RLS-8244-L4
RLS-8350-L5
RLS-8350D-L5
RLS-8404H-L5
RLS-8444D-L5
RLS-8444H-L5
RLS-8360-L5
RLS-8360D-L5
RLS-83120-L5
RLS-83120D-L5
TLS-8211
TLS-8211D
TLS-8222
TLS-8222D
Quantum
Scalar i40
www.quantum.com/
Products/TapeLibraries/
Scalar i80
Scalari6000/Index.aspx
Spectra Logic
www.spectralogic.com
Oracle
www.oracle.com/us/
products/servers-storage/
storage/tape-storage/
index.html
Spectra Logic T50e
SL24 Library
SL3000 Library
SL48 Library
SL500 Library
SL8500 Library
Tandberg Data
www.tandbergdata.com
StorageLibrary T24
StorageLibrary T40+
StorageLibrary T80+
StorageLibrary T120+
StorageLibrary T160+
ab 7.600
ab 12.000
ab 62.000
Quelle: speicherguide.de
speicherguide.de
storage-magazin.de
Eine Publikation von speicherguide.de
Oktober 2011
Einkaufsführer Storage
Advertorial
11
Mehr Sicherheit und Verfügbarkeit in einem System
SAN-Speicher mit
redundanten Controllern
Die R-Serie der Icebox soll für mehr Ausfallsicherheit und Verfügbarkeit in Storage-AreaNetworks sorgen. Festplattenauswahl und Funktionsumfang gewährleisten optimalen
Nutzwert der Systeme. Auch bei der den Host-Anschlüssen stehen dem Anwender mehrere
Optionen zur Verfügung.
[ Sven Meyerhofer, N-Tec ]
Die Server-Virtualisierung verlangt vielen
Speicherumgebungen eine neue Qualität
an Ausfallsicherheit und Hochverfügbarkeit ab. Oft ist dies nur teuer zu erkaufen.
Für mittelständische Unternehmen bedeutet das auch, teilweise Funktionen
zusätzlich zu erwerben oder ein über­
dimen­sioniertes Speichergerät zulegen zu
müssen. Die Firma N-TEC bietet jetzt eine
neue Generation seiner »ICEBOX«-Serie
an, die »ICEBOX-R«, welche bereits für
unter 10.000 Euro mehr Sicherheit und
Verfügbarkeit ins Rechenzentrum bringt.
Das »R« der jüngsten Icebox-Generation steht für redundant bzw. für redundante Controller. Mit dieser Redundanz
sorgt das System intern für Ausfallsicherheit und höhere Verfügbarkeit. Somit
eignet sich diese Box durchaus für mittelgroße und große SAN-Umgebungen, die
­beispielsweise Daten virtueller Maschinen
absichern müssen.
Bei der Ausstattung lässt der Hersteller
dem IT-Manager freie Wahl. So stehen
als Festplatten kostengünstige SATAII-Festplatten mit drei TByte Kapazität zur
Verfügung. Darüber hinaus sind mit
6-Gbit/s-SAS-Medien und SSDs auch
Hoch­leis­tungs­laufwerke verbaubar. Letztere gewährleisten einen Einsatz in transaktionsreichen Umgebungen wie bei Da­
tenbankanwendungen,videobearbeitend
en Applikationen oder Testumgebungen.
Bei den Anschlüssen kann der Anwender aus dem Vollen schöpfen und alle
möglichen Interfaces wählen. Modell
»Ri13/6R« verfügt über sechs 1-Gbit/s-
Oktober 2011
Ethernet-Schnittstellen,
»RiX3/6R«
vereint zwei 10-Gbit/s- mit zwei 1-Gbit/sEthernet-Anschlüssen pro Controller.
Zwei SAS-Ports sind im RS63R zu haben.
Für Fibre-Channel-Konnektivität stehen
die Iceboxen »RF43R« und »RF86R«
zur Verfügung. Erstere hat zwei 4-Gbit/sFC-Schnittstellen auf der ControllerEinheit, letzteres vereint vier 8-Gbit/s-FCInterfaces mit zwei iSCSI-Ports. Darüber
hinaus offeriert der Anbieter eine JBODErweiterungsbox, die auch zwei SASAnschlüsse mitbringt.
Bessere Speichernutzung durch
Funktionsangebot
Zusätzlichen Datenschutz erreichen die
Arrays durch die Unterstützung der
S.M.A.R.T.-Technologie und den Einsatz
der »Snapshot-on-the-box«-Methode.
Hierbei lassen sich Snapshots unabhängig
vom angeschlossenen Host- und Betriebs­
system erstellen. Zudem kann der Administrator »Volume Replication« nutzen,
womit sich eine Kopie der Volumes auf
eine oder mehrere Iceboxen auch an externe Standorte umsetzen lässt. Die Replikation der Volumes erfolgt zeitgesteuert auf Block-Level über dedizierte
iSCSI-Replication-Links. Für optimierte
Auslastung der Speicherkapazität stattet
der Hersteller diese Systeme in Kürze mit
Thin-Provisioning aus. So wird nur wirklich genutzter Speicherplatz belegt, auch
wenn dem Volume virtuell mehr zusteht.
Das verhindert Engpässe und unnütz
brachliegende Kapazitäten.
In der Vollausbaustufe mit 3-TByteSATA-Platten lassen sich 48 TByte Brutto-
speicherkapazität nutzen. Die Fest­platten
sind wie bei allen N-Tec-Modellen hot­
swapfähig und lassen sich ohne
Betriebsunter­brechung dynamisch und
online erweitern oder austauschen. SATA,
SSD als auch SAS-Drives können gemischt
betrieben werden. Um einen reibungslosen Betrieb zu gewährleisten, lassen sich
neben den hotswapfähigen Laufwerken,
Lüftern und Netzteilen auch die Betriebs­
temperatur überwachen und im Fehlerfall
entsprechende Meldungen generieren.
Eine weitere Maßnahme gegen einen
möglichen Plattenausfall ist die vertikale
Anordnung der Platten. Diese sind so vor
Vibrationen und gegenseitigem Hochschaukeln geschützt. Ein für den CCTVMarkt integriertes analoges Relais ermöglicht die Überwachung über und den
direkten Anschluss an ein SicherheitsManagement-System.
Die Konfigura­tion und Administration
des Arrays erfolgt via Webbrowser mittels
der intuitiven Web-Oberfläche. Fehlermeldungen können über SMTP, SMS,
SNMP und Netsend (Winpopup) weitergeleitet werden. Die Über­wachung des
Speichersystems erfolgt unabhängig vom
Host- und Betriebs­system, was wiederum
den Betrieb wie in heterogenen Netzen
K
erlaubt.
Weitere Informationen
N-Tec GmbH
Oskar-Messter-Str. 14,
85737 Ismaning
Tel.: + 49 (0) 89 - 95 84 07-0
www.ntecgmbh.de
speicherguide.de
Eine Publikation von speicherguide.de
storage-magazin.de
12 Advertorial
Einkaufsführer Storage
Fallstudie: MDW setzt auf Hochverfügbarkeit und Virtualisierung
Storage-Hypervisor beschleunigt
Vmware-Umgebung
Die Universität für Musik und darstellende Kunst in Wien hat eine hochverfügbare,
virtuelle Speicherlösung auf Basis des Storage-Hypervisors »SANsymphony« von Datacore
implementiert. Zusammen mit der virtuellen Server-Infrastruktur unter Vmware erreicht
die Uni Performance-Verbesserungen von bis zu 40 Prozent.
Die Universität für Musik und darstellende Kunst (MDW) in Wien ist mit etwa
3.500 Studierenden eine der größten
eigenständigen Kunstuniversitäten der
Welt. Dabei betreibt man diverse pädagogische Lehrinstitute für die Musikausbildung im Instrumentalstudium, für die
Gesangsausbildung, die Filmakademie
und das Schauspiel im Institut für Schauspiel und Schauspielregie, besser bekannt
als Max-Reinhardt-Seminar, das gegenwärtig sein komplettes Film- und Videoarchiv digitalisiert. Das Campusgeschehen
ist geprägt von wechselnden Projekten
auch in der Forschung. Studenten wird
im Campus-Netzwerk individueller FileSpace zur Verfügung gestellt.
Transparente Hochverfügbarkeit
gefordert
Als zentrale Speichersysteme waren je
eine HP »EVA8000« bzw. »EVA6000«
mit einer Bruttokapazität von 45 bzw. 28
TByte im Einsatz, die in einer Fibre-Channel-Infrastruktur auf zwei Rechnerräume
innerhalb des Campus verteilt waren. Auf
das SAN greifen eine Oracle »Real
Application«-Cluster mit sechs Knoten für
das Campus-Management und ein Novell »Open Enterprise«-Cluster mit 15
Knoten für File-, Mail- und Web-Services
sowie einige weitere Linux- und SUN»Sparc«-Maschinen zu. Schon einige Jahre zuvor hatte man zudem einen Teil der
Server-Hardware konsolidiert und VMware »ESX« eingeführt. Heute laufen auf
speicherguide.de
zehn physischen Servern knapp 100 vir-
storage-magazin.de
Foto: Soltiz/Minichmayr
[ Verena Simon, Konzept PR ]
Die Universität für Musik
und darstellende Kunst
installiert auf Basis der
Software-Virtualisierung
von Datacore eine hochverfügbare und transparente Storage-Struktur.
tuelle Maschinen unter dem Server-Hypervisor im zentralen SAN. Eine insgesamt
heterogene IT-Umgebung, einzig physische Microsoft Windows-Server suchte
man vergeblich.
Handlungsbedarf ergab sich durch die
erhöhten Anforderungen an die Verfügbarkeit der zentralen Infrastruktur. Zwar
konnten die Hardware-Systeme in sich
durch Snapshots, Replikation und entsprechende RAID-Konfiguration gegen
Datenverlust gesichert werden, eine echte Hochverfügbarkeit, die auch greift
wenn eines der Systeme ausfällt oder
planmäßig gewartet werden muss, war
jedoch nicht gegeben.
Eine Publikation von speicherguide.de
Daraus ergaben sich die Anforderungen
an ein neues Hochverfügbarkeitskonzept
und man beschloss die Virtualisierung des
Storage. So wandte man sich an seinen
IT-Infrastruktur-Partner ACP und eruierte
verschiedene Optionen. Die eigentlich
naheliegende Lösung des Hardware-Herstellers HP »SVSP« schied mangels der
Unterstützung gut funktionierender Linux-Treiber aus. Bei einem anderen ACPKunden, dem Wiener Parlament, lernte
Hermann Rothe, IT-Verantwortlicher
Kommunikationssysteme bei der MDW
das auf Microsoft Windows aufsetzende
»SANsymphony« von DataCore Software kennen: »Das war zunächst ein
Oktober 2011
Einkaufsführer Storage
Datacore als Storage-Hypervisor
Auf zwei HP »Proliant DL380 G7« mit
Intel Quad-Core-Prozessoren, je 48
GByte RAM und je drei QLogic Dual-PortFC-HBAs mit acht Gbit läuft als Betriebssystem »Windows Server 2008 R2«. Darauf wurde Sansymphony in der Version
7.0 als Virtualisierungs- und Speichermanagementinstanz installiert. Die StorageServer sind räumlich getrennt in den Rechenzentren untergebracht. Je zwei
Fibre-Channel-Verbindungen dienen dem
redundanten Anschluss an die Host- bzw.
Storage-Infrastruktur. Für die direkte Verbindung der Storage-Server sind je zwei
Adapter reserviert, um die synchrone
Spiegelung ausfallsicher und performant
zu gestalten.
Durch die Virtualisierung der physischen Speicherplatten entsteht ein logischer Speicher-Pool, der von Sansymphony verwaltet wird. In diesen wurden die
vorhandenen EVA-Systeme in den beiden
Rechenzentren integriert und um eine
zusätzliche EVA6400 mit 88 TByte erweitert. Sie beherbergt sowohl gespiegelte
als auch ungespiegelte Daten. Geplant ist
auch eine Erweiterung auf Seiten des
8000er Systems. Darüber hinaus wurde
bereits eine kostengünstigere HP »P2000«
mit 20 TByte SATA-Platten als NearlineStorage für die E-Mail-Sicherung bereitgestellt. Insgesamt steht heute eine Gesamtkapazität von rund 120 TByte zur
Verfügung.
Oktober 2011
13
tion-Cluster und die Novell Open-Enterprise-Cluster. Hochverfügbar konfiguriert
sind dabei die Datenbanken sowie die
Vmware, E-Mail und die wichtigsten FileServices. Andere Daten werden aus Kapazitätsgründen nicht hochverfügbar
vorgehalten. Um die Speicherplatznutzung zu optimieren, setzt MDW außerdem Datacores Thin-Provisioning ein, das
Speicherplatz jeweils nur nach Bedarf
belegt, auch wenn die zugehörige LUN
größer konfiguriert ist. Snapshots kommen für Testzwecke zum Einsatz.
Performance-Verbesserung als
Nebeneffekt
Foto: Datacore
kleiner Kulturschock für einen Nicht-Windows-Menschen und wir haben die Unterstützung diverser Linux- und SolarisDerivate genauestens geprüft. Überzeugt
hat uns aber der Ansatz der ApplianceSoftware für Storage, den wir ja bei unseren Firewalls oder den Mail-Gateways
ähnlich verfolgen. Unter dem Dach der
Datacore-Software können wir flexibel
und transparent Platten hinzufügen oder
austauschen, HBAs, Memory und andere
Komponenten variieren, kurz die komplette Storage-Infrastruktur kontinuierlich
an unserem Bedarf ausrichten.«
Trotz der großen Zufriedenheit mit dem
Hardware-Hersteller entschied man sich
auf Grund dieser Flexibilität und Hardwareunabhängigkeit für Sansymphony,
das ein komplettes Feature-Set für das
Management von Kapazität, Performance
und die Datensicherung zentral für alle
darunter liegende Speicher-Hardware
mitbringt und als Unified-Storage-Management-Oberfläche fungiert.
Advertorial
Bei der MDW läuft »SANsymphony«
als Virtualisierungs- und Speichermanagementinstanz – räumlich getrennt
in zwei Rechenzentren.
Die Datacore-Wolke stellt sich den
Hosts dabei als ein Disk-System dar und
gewährleistet durch synchrone Spiegelung die benötigte Hochverfügbarkeit.
Neben der synchronen Spiegelung nutzt
die MDW integrierte Standardfunktionen
für das zentrale Einrichten virtueller Partitionen und die Zuweisung der virtuellen
Plattenkapazität für die steigende Zahl an
virtuellen Vmware-Maschinen. Die dynamische Zuweisung mit Thin-Provisioning
optimiert dabei die Auslastung der Geräte im Pool, neue Disk-Kapazität kann jedoch jederzeit im laufenden Betrieb unabhängig vom Hersteller nachgelegt
werden. Weil die Datacore-Server ihren
Arbeitsspeicher als Cache nutzen, erhöht
das Datacore-SAN die eigentliche Schreibgeschwindigkeit der Storage-Hardware
und sorgt für performanten Betrieb.
Datenmigration im Hintergrund
Innerhalb von zwei Tagen war die Installation abgeschlossen. Nach erfolgreichen
Testläufen überführte man die Datensätze in die virtuelle Umgebung. Heute versorgt die Datacore-Umgebung die komplette virtuelle Serverinfrastruktur unter
Vmware sowie den Oracle Real-Applica-
IT-Leiter Rothe resümiert: »Wir sind bislang mit der Datacore-Lösung voll­
kommen zufrieden. Wir haben mit Sansymphony nicht nur die geforderte
Hochverfügbarkeit erzielt, sondern auch
die Performance des vorhandenen Storage verbessert.« Als Beleg dafür führt
der IT-Verantwortliche die PerformanceVerbesserung bei der Datensicherung an.
Diese konnte durch das Caching um 30
bis 40 Prozent beschleunigt werden. Und
mit dem Blick nach vorn führt er weiter
aus: »Die Verwaltung der Speicherumgebung, insbesondere die Speicher-Provisionierung, erfolgt sehr viel einfacher und
schneller als zuvor. Durch bereits realisierte und noch geplante Erweiterungen hat
sich der Ansatz einer Software-Speichervirtualisierung schon gelohnt: Wir profitieren langfristig von der Flexibilität und
Hardware-Unabhängigkeit der Lösung.«
So sind bereits die nächsten Schritte
angedacht: Demnächst wird die aus der
Wartung laufende HP EVA 6000 erneuert,
ohne dass mit einer Beeinträchtigung des
laufenden Host-Betriebs gerechnet werden muss. Ebenso freut man sich auf die
derzeit verfügbare neue Version »SANsymphony-V«, die dem IT-Verantwortlichen durch das integrierte Auto-Tiering
weitere Administrations-Erleichterungen
besonders im Umgang mit dem großen
Bestand an Nearline-Daten verspricht. K
Weitere Informationen
Datacore Software GmbH
Bahnhofstraße 18
D-85774 Unterföhring
Tel.: +49 089 4613570-0
E-Mail: infoGermany@datacore.com
www.datacore.de
speicherguide.de
Eine Publikation von speicherguide.de
storage-magazin.de
14 Advertorial
Einkaufsführer Storage
Synergien nutzen in physikalischen und virtuellen Umgebungen
Einheitliches Management
bis in die Cloud
Mit der Virtualisierung steigen die Anforderungen im Rechenzentrum. Eine StorageManagement-Lösung hilft dabei physikalische und virtuelle Umgebungen Herstellerübergreifend zentral und einheitlich zu verwalten. Commvaults »SIMPANA«-Suite deckt
ein komplettes Daten- und Informationsmanagement ab.
Unkontrollierbares Datenwachstum stellt
bei Unternehmen aller Größenordnungen
ein Problem dar. Ohne geeignete Tools
steigen die Kosten exorbitant, da sie
durch Sicherungs-, Wiederherstellungs-,
Notfallwiederherstellungs- und Archivierungskopien um das sieben- bis zehnfache aufgebläht werden, und auch der
Verwaltungsaufwand viel kostbare Zeit
verschlingt. Konventionelle SoftwareLösungen sind nicht für die gestiegenen
Ansprüche ausgelegt, die moderne Rechenzentren bewältigen müssen. In veralteten Konfigurationen werden verstreute Einzel-Ressourcen übermäßig belastet,
so dass keine Ressourcen für die Sicherung bzw. für Kopien übrig bleiben. Und
während das Wachstum der Daten stetig
ansteigt, wird das Handlungsfenster
­immer kleiner, denen die Sicherungsarchitektur nicht standhält. Neue Technologien, gesetzliche Auflagen, die Prioritätenverlagerung von der Aufbewahrung
zur Wiederherstellung, der Umstieg auf
Cloud-Computing und die Einführung
von Virtualisierung wirken sich gravierend
auf die IT aus, die nicht mit den passenden
Tools ausgestattet ist: Die Arbeitsvorgänge leiden darunter und der Verwaltungsaufwand kann kaum noch bewältigt
werden sowie die nicht mehr ausreichenden Service-Level-Agreements (SLAs).
Es gibt also viele Gründe eine Datenmanagement-Lösung einzusetzen, die
zum einen diese ganzen Anforderungen
speicherguide.de
abdecken kann und zum anderen ein
storage-magazin.de
Grafik: Commvault
[ Andreas Mayer, Commvault ]
Simpanas »SnapProtect«, unterstützt VMs unabhängig von der Hardware
bzw. des Herstellers.
zentrales, einheitliches Management bietet, um die Komplexität zu reduzieren.
Die Datenmanagement-Lösung soll möglichst dazu beitragen können, SynergieEffekte zu ermöglichen und auch schon
mittelfristig Kosten einzusparen bzw.
auch in absehbarer Zeit den Return on
Investment (ROI) zu erreichen.
Modulares Datenmanagement auf
einer Plattform
Die CommVault »SIMPANA«-Suite bietet
beste Voraussetzungen, um die oben genannten Anforderungen zu erfüllen. Mit
dem modularen Aufbau können alle Anforderungen von Backup/Recovery, Archi-
Eine Publikation von speicherguide.de
vierung, Replikation, SRM und umfassende Suche abgedeckt werden. Die
Besonderheit dabei ist, dass ein komplettes Daten- und Informationsmanagement
auf einer Technologie-Basis ermöglicht
wird. Ein Administrator hat beispielsweise mit nur einer GUI und Management
Konsole einen deutlich geringeren Verwaltungsaufwand und muss nur den
Umgang mit einer Lösung lernen. Dazu
kommt, dass die Datenhaltung und Speicherausnutzung durch die globale, eingebundene Deduplizierung stark optimiert wird, Kosteneinsparungen durch
einfachere Verwaltung und geringeren
Storage-Verbrauch ermöglicht werden.
Oktober 2011
Einkaufsführer Storage
Neben den umfangreichen Backup/
Recovery-Ansätzen kommt auch die umfassende Snapshot-Verwaltung »Snap­
Protect« dazu. Die Planung von Snapshots
erfolgt über die zentrale CommvaultKonsole. Nach der Snapshot-Erstellung
mountet und katalogisiert der CV-Medien-Agent den Snapshot in Commvault als
Wiederherstellungskopie. Mit benutzerdefinierten Richtlinien werden Commvault-Snapshot-Kopien gesteuert (Deduplizierung auf Festplatte, Band oder
Cloud-Speicher). Die Daten lassen sich
unabhängig vom Speicherort wiederherstellen. Dabei kann der IT-Verwalter das
gesamte Volume, die gesamte Anwendung oder aber einzelne Objekte, Datenbanken sowie Dateien wiederherstellen.
Indessen gibt es eine umfangreiche Hardware-Unterstützung (EMC, Dell, HDS,
HP, IBM, LSI, NetApp) mit hohem Integrationsgrad. Hier reicht der große Funktionsumfang von der Unterstützung virtueller Server, oder gezielte Sicherung von
Postfächern und Archivierung auf der
Basis von Snapshots bis hin zu mehr Wiederherstellungsoptionen wie »mounten
und Data-Mining« oder E-Mails/Anhänge
die direkt aus der Snapshot-Sicherung auf
Postfachebene wiederhergestellt werden
können. Der Vorteil hierbei sind Sicherungs- und Archivierungsvorgänge ohne
Zugriff auf den Host.
Der gleiche Zugriff, der die Sicherung
von Postfachdaten aus Snapshots ermöglicht, kann auch zur Anwendung von
Archivierungsrichtlinien auf E-Mail- und
Dateiservern genutzt werden. Der Host
lässt sich dadurch weiter entlasten und
gibt zudem umfangreiche Kapa­zitäten
auf teuren Tier-1-Festplatten frei, was
wiederum häufigere Snapshots und damit
eine verbesserte Sicherung ermöglicht.
Globale Deduplizierung und
Notfallwiederherstellung
Schnell steigende Datenmengen und kleiner werdende Sicherungsfenster sind
Herausforderungen für die IT, denn es gilt
die Datenmengen innerhalb kürzerer Zeit
zu sichern. Mit der konventionellen Methode, alles einfach von vorne nach hinten zu verschieben, ist dies nicht machbar.
Schnelle (Notfall-)Wiederherstellung ist
essentiell. Kompromisse zwischen schneller Wiederherstellung und Kosten müssen
Unternehmen möglichst vermeiden. Ein
weiterer Punkt ist die kostengünstige Skalierung der Lösung, um mit dem Wachstum Schritt zu halten. Die Lösung muss
Oktober 2011
Advertorial
bei Erreichung ihrer Auslastungsgrenze,
eine Erweiterung ohne hohen Kostenaufwand ermöglichen. Deduplizierung mit
der Simpana-Suite bedeutet den Einsatz
einer ganzheitlichen Lösung, die sich
durch eine zentrale Managementkonsole,
eine Architektur, gemeinsam genutzte
Ressourcen und eine Sicht der Betriebsabläufe auszeichnet. Die Deduplizierung
erfolgt schon am Client, so dass die zu
übertragende Datenmenge sich deutlich
reduziert und das benötigte BackupFenster kleiner wird. Die Deduplizierung
zieht sich so von den Clients über MediaServer und Storage-Tiers bis hin zum Tape
sowie sogar bis in die Cloud durch. Diese
globale Deduplizierung ist auch bis in
Außenstellen einsetzbar. Damit ist ein
Senden von Daten, die bereits von anderen externen Standorten gesendet wurden, nicht mehr erforderlich. Die Deduplizierungsdatenbank selbst wird gesichert
und so werden weniger Ressourcen auf
dem Medienserver benötigt.
Die Notfallwiederherstellung der Daten
wird per DASH (Dedupe Accelerated Streaming Hash) durchgeführt. Dabei sind
keine replizierten Speicher erforderlich.
Die deduplizierten Daten von externen
Standorten können mit unterschiedlichen
Aufbewahrungsrichtlinien verschoben
werden, was reduzierten Speicherplatzbedarf für deduplizierte Daten und mehr
Flexibilität für Notfallwiederherstellung
und externe Standorte mit sich bringt. Die
Funktionsweise von vollständigem DASH
besteht darin, dass keinerlei Rehydration
oder erneute Deduplizierung für synthetisch komplette Sicherungen erforderlich
sind. Die Referenzzahlen werden aktualisiert und ausschließlich Metadaten auf
die Festplatte geschrieben. Eine synthetisch vollständige Sicherung dauert so nur
wenige Minuten.
Virtualisierung und
Datenmanagement
Ein bedeutender Punkt ist die Datenverwaltung in virtualiserten Umgebungen.
Die Simpana Virtualisierungslösung bringt
im Zusammenspiel mit Snapprotect erhebliche Vorteile. So werden tausende
von VMs unabhängig von der Hardware
unterstützt. Dabei lassen sich nahezu zeitgleiche anwendungskonsistente Sicherungen hunderter virtueller Maschinen
mithilfe arraybasierter Snapshots für
knappe Sicherungsfenster erstellen. Mehrere RPOs pro Tag sind möglich. So kann
der IT-Manager Speicher-, Bandspeicher-
15
und Cloud-Ebenen-übergreifende Datenverwaltung über den gesamten Aufbewahrungszeitraum, ­Datensicherung und
-aufbewahrung ­vornehmen. Gleichzeitig
geht eine verringerte Beeinträchtigung
der Produktions-Server durch externe Katalogisierung mit Simpana einher.
Externes Data-Mining für Microsoft
»Exchange« ist ebenfalls implementiert.
Durch die in die Software-Suite integrierte Deduplizierung kommt es zu einer
Senkung der Speicherkosten. Administratoren wird eine einfache Speicher- und
Bandspeicherebenen-übergreifende Wiederherstellung von virtuellen Maschinen,
Anwendungen und Daten ermöglicht.
Dazu kommt noch eine umfassende Kontrolle von Ressourcen-Auslastung und
-nutzung über eine zentrale Konsole zur
fundierten Entscheidungsfindung. Die
Commvault Virtualisierungslösung unterstützt VMware, Microsoft Hyper-V und
Citrix »Xen«.
Der unique Ansatz
Die Simpana-Suite bietet Informationsmanagement sowohl für physikalische als
auch virtuelle Umgebungen und bis in die
Cloud. Das nahtlose Zusammenspiel der
Module wird gewährleistet, da diese auf
einer einheitlichen Technologie-Plattform
(Common Platform) basieren. Dieser
unique Ansatz bringt Synergie-Effekte
sowohl aus wirtschaftlicher als auch technologischer Sicht mit sich. So werden
beispielsweise die Daten mit Hilfe des
Suchmoduls zu Informationen, die jeder
Anwender gemäß seiner Zugriffsrechte
einfach selbst suchen kann. Dies dient
sowohl betrieblichen Vereinfachungen
und Anforderungen als auch der Erfüllung
von Compliance-Anforderungen. Denn
gesicherte und archivierte Daten sind
zwar vorhanden, aber ohne eine starke
Suchfunktionalität können die gesuchten
Informationen nicht einfach wiedergefunden werden. Durch die technologische
Verknüpfung über die einheitliche Technologie-Plattform der Module entsteht
im Einsatz ein maximaler Nutzen, der mit
konventionellen Ansätzen nicht erreicht
K
werden kann.
Weitere Informationen
Commvault Systems GmbH
Lessingstr. 11, 46149 Oberhausen
Tel.: + 49 0208 468460
Fax: + 49 0208 4684679
www.commvault.de
speicherguide.de
Eine Publikation von speicherguide.de
storage-magazin.de
16 Advertorial
Einkaufsführer Storage
Erst eine WAN-Optimierung sorgt für schnellere Replikation
Was hat WAN-Optimierung
mit Storage zu tun?
WAN-Optimierung ist eine Disziplin der Netzwerkverantwortlichen. Dennoch hat ­
Orchestra Service GmbH, ein Value-Add-Distributor für Backup- und Storage-Lösungen,
seit Februar 2011 eine solche Lösung im Portfolio. Welche Verbindung besteht zwischen
Storage und WAN-Optimierung?
[ Johannes Bertele,
Orchestra Service GmbH ]
chen Paketkollisionen und Paketverluste,
die ein erneutes Senden der Information
erfordern.
Weitere Einflussfaktoren sind die Latenz, also die Laufzeit eines Signals und
die Bandbreite.
Replikationsprotokolle reagieren
empfindlich
Die Replikationsprotokolle der bekannten
Storage-Hersteller EMC, NetApp & Co.
erfordern allesamt eine hohe Qualität der
Verbindung zwischen den Storage-­
Grafik: Orchestra
Zu einem wichtigen Instrument der Disaster-Recovery-Vorsorge gehört die Replikation der unternehmenskritischen Daten
in ein entferntes Storage-System. Bei
Ausfall des primären Systems stehen die
Produktivdaten am Disaster-RecoveryStandort zur Verfügung. Der Datenverlust
(RPO) und die Wiederanlaufzeit (RTO)
kann je nach Anforderung auf ein Minimum reduziert werden.
Die Verbindung zwischen zwei oder
mehr Standorten wird über Datendirektverbindungen (DDV), MPLS oder InternetVPN realisiert.
Datendirektverbindungen sind teure,
dedizierte Verbindungen mit sehr hoher
und vorhersagbarer Qualität. MPLS hingegen sind günstigere Verbindungen,
deren Qualität wesentlich geringer und
eingeschränkter prognostizierbar ist. In
der Realität teilt man sich die Datenleitung mit anderen Teilnehmern. Die vielen
konkurrierenden Anwendungen verursa-
Der effektive Durchsatz verringert sich bereits bei 0,075% Paketverlustrate auf <5 MByte/s
speicherguide.de
storage-magazin.de
Eine Publikation von speicherguide.de
Oktober 2011
Einkaufsführer Storage
Advertorial
17
Systemen. Hohe Transferraten von 60
GByte/Stunde über Datendirektverbindungen reduzieren sich bei MPLS-Verbindungen aber sehr schnell auf 2 bis 3
GByte/Stunde.
Selbst ein Upgrade auf eine größere
Bandbreite ist nicht zwangsläufig die richtige Antwort. Der effektive Durchsatz
steigt meist nur gering an, und steht in
keinem Verhältnis zu den zusätzlichen
Kosten. Datendirektverbindungen scheiden wegen der immens hohen Kosten
ebenfalls in den meisten Fällen aus.
Geht es um die Optimierung des »effektiven« Durchsatzes über WAN-Verbindungen, lautet die eindeutige Antwort von
Orchestra: WAN-Optimierung von Silver
Peak Systems. Damit sind Unternehmen
in der Lage, größere Datenmengen über
MPLS-/Internet-VPN zu übertragen. Zusätzlich können Speicherumgebungen
mit anderen Anwendungen zusammen
ein WAN nutzen, und so die laufenden
WAN-Kosten der Unternehmen drastisch
senken – oftmals um über 50 Prozent.
Die von Silver Peak verwendeten Optimierungstechniken werden alle in Echtzeit ausgeführt und arbeiten primär auf
der Netzwerkebene (IP). Für alle Anwendungen und in jeder WAN-Umgebung
sichert dies eine optimale Leistung und
Durchsatz.
Patentierte Technologie
der Silver-Peak-Lösungen
Folgende technische Komponenten werden von den Silver-Peak-Produkten mit
VXOA-Architektur genutzt (VXOA = Virtual Acceleration Open Architecture), um
die sichere und zuverlässige Beschleunigung aller Anwendungen eines Unternehmens zu ermöglichen:
Network Acceleration (Netzwerkbeschleunigung) zur Unterdrückung der
Auswirkung von Latenz auf die Anwendungen.
Network Integrity (Netzwerkintegrität)
zur Lösung von Problemen beim Verlust
von Datenpaketen und zur Sicherung einer angemessenen QoS (Quality of Service).
Network Memory (Netzwerkspeicher)
zur Maximierung der Effizienz bei der
Nutzung der Bandbreite.
Einsatz von Silver Peak
Mit seiner Secure Content Architecture
sichert Silver Peak die Daten von Unter-
Oktober 2011
Grafik: Orchestra
Silver Peak – die erste Wahl
Replikation profitiert von der Optimierung durch Silver Peak
nehmen. Das Portfolio von Silver Peak
umfasst die Modelle NX, VX und VRX.
Alle Produkte sind zum Schutz lokaler
Datenspeicher mit AES-Verschlüsselung
ausgestattet und können auf Wunsch mit
IPSec zur Sicherung der Daten im WAN
ausgerüstet werden.
Die NX-Geräte sind Appliances, die sich
nahtlos in jedes Unternehmensnetzwerk
einfügen lassen und die WAN-Kapazität
von Mbit/s zu Gbit/s erhöhen. Die VXReihe ist die reine Softwarevariante. Sie
bietet die gleichen Optimierungseigenschaften wie die NX-Geräte, aber auf
virtueller Ebene.
Leistungsstärkster
Punkt-zu-Punkt-Durchsatz
Silver Peaks VRX-Anwendungen sind virtuelle WAN-Optimierungsgeräte, die sich
besonders für die Lösung von Problemen
zwischen Rechenzentren eignen (wie
etwa die Replizierung und Migration von
Daten und die Wiederherstellung verlorengegangener Daten/Disaster Recovery).
Sie bieten den leistungsstärksten Punktzu-Punkt-Durchsatz aller virtuellen WANOptimierungsanwendungen und sind
nachweislich kompatibel mit allen führenden Speicherlösungen.
Alle Systeme nutzen die jeweils gleichen Verfahren, um den Datentransfer zu
beschleunigen. Die Deduplizierung, also
das Herausfiltern redundanter Pakete,
findet auf der IP-Ebene statt und nicht in
der TCP-Schicht. Das ermöglicht die Komprimierung von Datenbeständen, die be-
reits mithilfe anderer Tools für den Transport über WAN-Links optimiert wurden.
Zeitkritischen Daten, wie Sprachpakete,
profitieren von der Funktion NetworkIntegrity.
Kostenfreie Variante
Einfacher und schneller Weg in die WANOptimierung: Den vollen Funktionsumfang stellt Silver Peak auch mit der kostenfreien Freeware-Variante VX-Xpress
zur Verfügung (www.vx-xpress.com). Die
VX-Xpress steht ohne vorherige Registrierung zum Download zur Verfügung.
Einzige Voraussetzung für den Betrieb ist
die Installation der virtuellen Appliance
auf »VMware vSphere«.
Die Einsatzgebiete der Silver Peak Software und Hardware reicht über die Anbindung von Außenstellen bis hin zum
Datentransfer zwischen großen Rechenzentren. Namhafte Unternehmen vertrauen bereits auf die Silver-Peak-Technologie.
Dazu gehören unter anderem Google,
Yahoo, Ebay, Facebook, Expedia,
K
Trend Micro, ARM und AT&T.
Weitere Informationen
Orchestra Service GmbH
Zeppelinstraße 2
82205 Gilching
Sales Hotline: +49 (0) 8105 - 370 370
Fax: +49 (0) 8105 - 370 100
E-Mail: info@orchestra.de
www.orchestra.de
speicherguide.de
Eine Publikation von speicherguide.de
speicherguide.de
storage-magazin.de
18 Datenspeicherung
Einkaufsführer Storage
Storage-Erweiterung in 3D
Die »Virtual Storage
Platform« (VSP) von HDS
unterstützt auch Systeme
von Drittanbietern.
Um auf alle Speicheranforderungen vorbereitet zu sein, benötigen
Firmen eigentlich die eierlegende Wollmilchsau. Oder eben ein System,
welches sich flexibel und auf verschiedenen Ebenen nach Bedarf und
Belieben erweitern lässt. HDS bietet mit seiner VSP ein System, das
nicht nur die eigenen Ressourcen nutzen kann.
[ Ulrike Rieß ]
Rechenzentren sind historisch gewachsen, das gilt vor allem im Speicherbereich.
Durch Virtualisierungslösungen lässt sich
die Server-Umgebung meist verhältnismäßig unproblematisch konsolidieren
und danach besser nutzen. Die StorageEbene ist oft nicht ganz so einfach zusammenzufassen und besser auszulasten.
Erst recht, nachdem bereits eine Servervirtualisierung stattgefunden hat. Dann
werden die optimale Nutzung des Speichernetzwerks und die Planung für kommende Anforderungen zum Glücksspiel.
Flexible und hoch skalierbare Systeme
sind gefragt, die nicht nur einzelne Ressourcen verteilen können. Die »Virtual
Storage Platform« (VSP) von Hitachi
Data Systems ist so eine Lösung, die sich
quasi durch »Anbauten« – auch von Drittanbietern – erweitern, optimieren und
effizienter gestalten lässt.
»Inseln sind eine tolle Sache, wenn man
drauf leben darf, im Rechenzentrum sind
sie hinderlich und verursachen nicht nur
Flaschenhälse und somit Leistungseinbußen, sondern sind auch schwer zu verwalten«, weiß Dr. Georgios Rimikis,
Manager Solutions Strategy bei Hitachi Data System. »Unternehmen benötigen Lösungen, die ihnen Raum zum
Wachsen in jeder Dimension lassen, selbst
wenn eine genaue Planung nicht mehr
speicherguide.de
möglich ist. Dabei soll er seine Speicher-
storage-magazin.de
umgebung von heute auf morgen anpassen können, ohne dabei den Betriebsablauf unterbrechen zu müssen. Wir
glauben, dass die VSP ihm dabei die ideale Plattform bieten kann.«
Skalieren in 3D:
Für die hohe Flexibilität und die Effizienz
der VSP sorgen die »Anbau«-Möglichkeiten bzw. die Erweiterungsoptionen, die
sich dem EDV-Verantwortlichen bieten.
Der Hersteller selbst nennt diesen Ansatz
3D-Skalierbarkeit, da die Expansion auf
mehreren Ebenen erfolgt. Es wird dabei
unterteilt in »Scale-up«, »Scale-out« und
»Scale-Deep«.
Scale-Up: Unter Scale-Up versteht der
Hersteller das Hinzufügen von HardwareKomponenten innerhalb eines Chassis,
zum Beispiel in Form von Festplatten,
SSDs oder Cache um die Kapazität und
Performance zu steigern. Dabei kann der
Administrator quasi nach dem Lego-Prinzip vorgehen und Stein für Stein aufstapeln. Performance, Kapazität und HostVerbindungen lassen sich unabhängig
voneinander aufstocken.
Scale-Out: Beim Scale-out geht es um
die erste externe Erweiterungsstufe in
Form einer zweiten VSP, die sich natürlich
auch von klein bis groß nach dem gleichen Prinzip aufbauen lässt. Insgesamt
kann der IT-Manager auf diesem Wege
die zweifache Leistung des Vorgängermodells »USP V« erreichen, unter ande-
Eine Publikation von speicherguide.de
Foto: Hitachi Data Systems
Effizienter und
skalierbarer Speicher
rem mit 192 GByte/s aggregierter Bandbreite. Bei der Gesamtspeicherkapazität
liegt das interne Maximum bei 255 PByte.
Zum Einsatz können bis zu 2.048 SASDrives (2,5 Zoll) kommen oder 1.280
SATA-Medien (3,5 Zoll). Letztere bieten
die maximale Ausbaustufe von 2,5 PByte,
SAS kommt auf 1,2 PByte. Darüber hinaus
kann der IT-Manager bis zu 256 FlashSpeicher verbauen, die die Performance
nach oben treiben. Für die Anbindung
stehen bis zu 192 8-Gbit/s-FC-Ports, 192
8-Gbit/s-FICON-Interfaces, 88 FCoESchnittstellen mit zehn Gbit/s zur Verfügung. Damit erhalten Unternehmen fast
das Doppelte aller maximalen Leistungsstufen einer VSP. Dabei sind beide Systeme zu einem Grid verbunden, welches
sich als eine Maschine darstellt. Dies wird
durch die »Hierarchische Star Network
Crossbar Switch«-Architektur ermöglicht.
Diese Lösung umfasst bis zu acht virtuelle Storage-Directors, verfügt über ein
TByte im globalen Cache und erlaubt jedem Host-Port direkten Zugriff auf jede
im Backend liegende RAID-Gruppe. Diese
Skalierung ist online, ohne Unterbrechung möglich und erlaubt flexible Anpassung an schnell steigende Anforderungen im IT-Umfeld.
Scale-Deep: Scale-Deep ist die dritte
Variante der Speichererweiterung. Dabei
geht es um eine optimierte Version der
Storage-Virtualisierung. Hier können nun
externe Speicher bzw. Storage anderer
Oktober 2011
Einkaufsführer Storage
Hersteller in den Pool einbezogen und
verteilt werden. Mit der »Universal Volume Manager«-Software können diese
dann konfiguriert, verwaltet und so genutzt werden als seien sie interne VSPVolumes. Die Storage-Management- und
Replikations-Tools kann der IT-Manager
wie gewohnt nutzen, unabhängig davon
ob die Daten auf dem VSP- oder externen
Speicher liegen. Die Einbindung ist transparent und umfasst alle gängigen Anbieter unter anderem Systeme von EMC,
IBM oder Sun. Dem Administrator ist es
möglich, beispielsweise Tiered-Storage
über die Grenzen des eigenen Systems
hinweg zu nutzen, selbst wenn externe
Storage-Arrays bereits etwas älter sein
sollten. Ebenso lassen sich alle Funktionalitäten und Virtualisierungsoptionen
über die üblichen Limitierungen des einzelnen Speichers hinaus nutzen. Das
erleichtert zum Beispiel anstehende Datenmigrationen und auch Ausfallzeiten
fallen weg. Zudem kann Disaster-Recovery für den gesamten Storage-Pool mittels
»Universal Replicator« zum Einsatz
kommen. Darüber hinaus ist bei ScaleDeep die Mandantenfähigkeit durch
virtuelle Ports, Cache-Partitionierung,
­
Zugriffskontrollen für dedizierte Res­
source-Gruppen und Volume-OwnerManagement gewährleistet.
Gemacht für Virtualisierung
Der Hersteller hat zur optimalen Einbindung virtueller Welten das »vStorage-API
for Array-Integration«, kurz VAAI, integriert. Auch hier bricht HDS die Grenzen
des eigenen Speichersystems auf und
kann das VAAI ebenso auf Maschinen von
Fremdanbietern nutzen. Dadurch kann
die VSP auf mehr als 100 virtualisierte
Multivendor-Storage Arrays erweitert und
als End-to-End-Virtualisierungslösung verwendet werden. In Verbindung mit der
3D-Skalierung lässt sich direkter Nutzen
aus dem VAAI ziehen, so zum Beispiel
sind umständliche Migrationen von virtuellen Maschinen nicht notwendig. Darüber hinaus erhöht sich die Dichte virtueller Maschinen. Des Weiteren steht die
Funktion »Full Copy« zur Verfügung.
Diese erlaubt den Speichersystemen,
komplette Datenklone innerhalb des Systems zu erstellen. Dies wiederum bringt
zu­dem eine Beschleunigung des VirtualMachine-Clonings sowie des Storage»vMotion«. Block-Zeroing oder auch
»Write Same« sollen eine zügigere Bereitstellung neuer virtueller Maschinen ge-
Oktober 2011
Datenspeicherung
währleisten. Hier verzeichnet das System
keine Zero-Blöcke mehr. Das heißt, gelöschte Blöcke werden sofort entfernt,
was wiederum die Effizienz der Speichernutzung erhöht. Der Hersteller nutzt zudem ein Tool namens »Hardware Assisted
Locking« (SCSI Reservation Lock), das
auftretende SCSI-Reservierungskonflikte
eliminiert und dadurch die Datensicherung, die Performance sowie die Dichte
virtueller Maschinen optimieren soll.
»Mit der übergreifenden Integration
von VAAI und den darunter angesiedelten
Funktionen, die sich auch auf Drittsystemen nutzen lassen, wollen wir den Umstieg auf virtuelle Umgebungen erleichtern«, erklärt HDS-Manager Rimikis.
»Viele Unternehmen scheuen Virtualisierungslösungen, weil sie meist mit viel
manuellem Aufwand verbunden sind und
dann oft höhere Anforderungen an den
Speicher stellen, die im Vorfeld kaum absehbar sind. Wir möchten hier den Weg
in VMware- und Cloud-Umgebungen
ebnen.«
Alles auf Dynamisch
Die VSP bringt nicht nur Skalierbarkeit auf
drei Ebenen, sondern auch einen großen
Funktionsumfang mit, der sich auch jenseits der Systemgrenzen nutzen lassen.
Das steigert die Flexibilität und Effizienz
innerhalb des gesamten Speicherpools.
Zu den wichtigen Funktionen gehören
das »Dynamic Provisioning« und das »Dynamic Tiering«. Dynamic-Provisioning
entspricht dem Thin-Provisioning und teilt
realen Speicherplatz erst dann zu, wenn
eine Anwendung Daten auf die Platte
schreibt, selbst wenn ihr virtuell mehr
zugesprochen wurde. Damit wird kein
Foto: Hitachi Data Systems
unnötiger Speicherplatz verschwendet.
Ebenso ist es möglich, die Daten über alle
LUNs im Pool zu verteilen (stripen) und
damit High-Performance-Volumes zu
schaffen. Diese Methode eliminiert so
genannte »Hot Spots« und erlaubt Parallelzugriffe auf Festplatten, was insgesamt für eine optimierte Performance des
Systems sorgt.
Das Tiering lässt sich auch über den
gesamten Speicher-Pool anwenden. Dabei verschiebt das System wenig genutzte Daten, die zuvor noch die Leistung
19
einer SSD benötigten und nun geringe
Zugriffszahlen verzeichnen auf günstigere Speicher-Medien, beispielsweise Nearline-SAS- oder SATA-Medien. Dies erfolgt
automatisch und nach vorher gesetzten
Parametern. Nicht alle Daten eines Volumes werden auf dieser Art verschoben,
sondern nur die betroffenen Pages. Weitere wichtige Funktionen sind die virtuellen Ports und die Datenverschlüsselung.
Die so genannten Virtual Ports erlauben
es, einen FC-Port als mehrere Schnittstellen darzustellen mit entsprechendem Zoning. Der Administrator kann so unterschiedlichen virtuellen Maschinen jeweils
einen eigenen Port zuweisen, obwohl sie
einen gemeinsamen nutzen. Die Datenverschlüsselung soll höhere Sicherheit der
Daten ohne Leistungseinbußen oder Latenzen garantieren.
Um die Mandantenfähigkeit zu unter­
stützen, lassen sich darüber hinaus logische Partitionen anlegen, die nichts
voneinander wissen. So erhalten beispielsweise 32 Partitionen ihre dedizierten
Laufwerke, Netzwerkverbindungen und
Cache. Damit hat der IT-Manager konsolidiert und bewahrt doch die eigenständige Überprüfung der Partitionen. Die
benötigten Ressourcen pro Partition sind
individuell zuteilbar.
Ein Storage-Modell – viele
Optionen
HDS will dem Anwender mit der VSP so
viele Optionen und Freiheiten wie möglich
bei der Verwaltung und der Erweiterung
seines Speichers geben, ohne gleich mehr
Boxen und mehr Aufwand fürchten zu
müssen. Besonderer Aspekt dabei ist die
Einbeziehung von Fremdspeicher, was
heterogen gewachsenen Umgebungen
gut gefallen wird, denn alle beschriebenen Funktionalitäten lassen sich über die
Grenzen der VSP hinaus ausdehnen. Und
nicht nur das: sie sind auch in z/OS-Umgebungen projiezierbar.
»Wir geben Unternehmen die größtmögliche Wahl und Flexibilität, die Speicherumgebung immer je nach Bedarf
anpassen und optimal nutzen zu können«, sagt HDS-Experte Rimikis. »Zum
Beispiel bieten wir die Flexibilität jeglichen
Filer bis hin zum Mainframe anzuschließen. Der IT-Manager kann klein anfangen
und immer wieder neu entscheiden, auf
welcher Ebene er skalieren will bzw. muss.
Somit geben wir ihm zukunftstaugliche
Optionen für die Zukunft schon heute mit
speicherguide.de K
auf den Weg.«
Eine Publikation von speicherguide.de
storage-magazin.de
20 Datenspeicherung
Einkaufsführer Storage
Schnelle RAID-Systeme mit hohem Funktionsumfang
Daten so sicher wie im Safe
RAID-Systeme sollen zahlreiche Anforderungen erfüllen: in virtuellen Umgebungen einsetzbar
sein, hohe Performance gewährleisten, Daten- und Systemsicherheit garantieren sowie über
umfassende Funktionen wie Replikation, Snapshots, Dedup oder Clusterfähigkeit verfügen.
RAID-Systeme, die im SAN-Verbund zum
Einsatz kommen sollen, müssen heute
eine Vielzahl an Anforderungen erfüllen.
Es kommt nicht mehr nur auf die Hardware-Stabilität und Endkapazität an,
sondern vielmehr auf Skalierbarkeit, Ausfallsicherheit, Performance und Funktionalität. Darüber hinaus ist ein gutes PreisLeistungsverhältnis ein überzeugender
Faktor. Modelle, die sich untereinander
verbinden lassen, ohne dabei auf Skalierbarkeit und Funktionen verzichten zu
müssen, stehen bei den EDV-Verantwortlichen hoch im Kurs.
Gesucht sind Systeme, die es erlauben,
SAN-Umgebungen flexibler, sicherer und
effizienter zu gestalten. Neben aller Funktionalität und Leistungsstärke benötigen
IT-Manager auch Lösungen, die Innovationsschutz sowie technische Zuverlässigkeit gewährleisten.
Für die Eternus-DX-Familie spricht ein
effizientes Daten-Management sowie das
Preis-Leistungs-Verhältnis.
Datensicherheit auf allen Ebenen
»Unsere »ETERNUS DX S2«-Reihe bietet
beispielsweise eine Kombination aus leistungsfähiger Architektur, flexiblem Design, Datensicherheit und Qualität der
Mainframe-Klasse«, sagt Robert Guzek,
Produkt Marketing Manager Eternus
bei Fujitsu. »Zusammen mit einer nahtlos
ineinander greifenden Produktfamilie sowie einer langfristigen Produktstrategie
erhält der jeweilige IT-Manager Systeme
mit hohem Nutzwert.«
Die Datensicherheit ist auf verschiedenen Ebenen gewährleistet. Mittels Hochverfügbarkeits-Cluster und Speichervirtualisierung stehen die Daten immer im
speicherguide.de
Zugriff und können selbst bei einem Aus-
storage-magazin.de
Foto: Fujitsu
[ Ulrike Rieß ]
fall schnell wiederhergestellt werden.
Einen weiter gehenden Datenschutz kann
es durch »Remote Equivalent Copy«
(REC), servergesteuerte Replikation sowie
Backup auf Festplatte oder Band und
Disaster-Recovery-Funktionen erreichen.
Logische oder menschliche Fehler und
Risiken durch Diebstahl von Daten lassen
sich mit Snapshots, Clones und Datenverschlüsselung vermeiden. Mit Funktionen
wie RAID-Level-Schutz, RAID-Migration,
Data-Block-Guard und Redundant Copy
auf SMART-Basis kann der Nutzer seine
Eine Publikation von speicherguide.de
Datenintegrität absichern. Nicht zuletzt
fangen die Systeme auch einen Ausfall
physischer Komponenten ab. Dafür verbaut der Hersteller redundante Komponenten (kein »Single Point of Failure«),
stellt unterbrechungsfreie Firmware-Upgrades bereit und integriert Features wie
Cache-Protector, Hot-Spare und Multipathing. Damit erhält der EDV-Verant­
wortliche Schutz für seine Geschäfts­
kontinuität, seine Geschäftsdaten, die
Datenintegrität, seine physischen Systeme und erhöhten Datenschutz.
Oktober 2011
Einkaufsführer Storage
Datenspeicherung
21
Für Einsteiger, die nicht auf Performance verzichten wollen, ist die Eternus
DX60 S2 mit SAS-Platten konzipiert.
Maximale Performance zu
optimalem Preis
In Benchmark-Tests konnten die EternusModelle ihre Performance unter Beweis
stellen, die gerade beim Einsatz in virtualisierten Umgebungen oder bei transaktionsreichen Anwendungen gefragt ist.
Insbesondere das Midrange-System
»ETERNUS DX440 S2« setzte sich gegen
die Wettbewerber beim SPC-1-I/O-Test
durch. Mit 97.498 I/O/s bei hundertprozentiger Arbeitslast erzielte es bis zu 30
Prozent mehr Leistung als mit getestete
Systeme. Ebenso wies das DX440 mit nur
fünf Millisekunden Antwortzeit die geringsten Reaktionszeiten auf. Da das Array über das gleiche Software-Paket und
die gleichen Hardware-Funktionen wie
die Enterprise-Systeme verfügt, offeriert
es nicht nur hohe Performance-Werte,
sondern auch hohe Funktionalität, ohne
eine Investition auf Enterprise-Level zu
erfordern.
Auch dies ließ sich im Test nachweisen:
Das DX440 weist mit diesen Leistungswerten das beste Preis-Leistungsverhältnis
auf. Mit 5,5 US-Dollar pro I/O ist es in
etwa einen Dollar günstiger als die Konkurrenz. Darüber hinaus konnte auch das
Einstiegssystem »ETERNUS DX80 S2« im
SPC-2-Test als leistungsstärkstes System
hervorgehen. Es erhielt 2.685,50 Wertepunkte auf der SPC-2 MBPS-Skala und
schnitt ebenso als Array mit gutem PreisLeistungsverhältnis ab.
»Wir haben uns diesem Test gestellt,
um zu zeigen, dass wir sowohl Leistungsabfragen als auch Budget-Anforderungen
bedienen können«, erklärt Guzek. »Oft
kann der IT-Manager den Spagat zwischen technischen Bedingungen und
Budget-Vorgaben nicht machen. Eternus-
Oktober 2011
Arrays schaffen hier bereits für zwei Busi­
ness-Segmente Abhilfe und bringen einen
echten Nutzwert ins Rechenzentrum.«
Investitionsschutz durch
einheitliche Speicherarchitektur
Nicht nur die Investitionssumme ist bei
der Wahl eines RAID-Systems entscheidend. Integrations- und Skalierfähigkeit
zählen ebenso zu wichtigen Kriterien hinsichtlich eines Investitionsschutzes. Kein
Unternehmen möchte ein Array nur zwei
Jahre nutzen und später Inkomaptibilitäten oder Leistungseinbußen feststellen.
Fujitsu hat hierfür die »Data-in-Place«Technologie entwickelt. Diese ermöglicht
es, nach einem System-Upgrade alle vorhandenen Festplatten mit den dazugehörenden Daten weiter zu verwenden. Der
IT-Verantwortliche muss keine TBytes an
Daten manuell verschieben, es erfolgt
lediglich ein Austausch des Storage-Kopfes. Da die Informationen auf den Medien
erhalten bleiben, entfällt eine Migration.
Durch dieses Verfahren lässt sich zum
Beispiel eine Eternus DX 80 S2 unkompliziert auf eine DX440 S2 hochrüsten.
Diese Lösung ist zudem durch das Hinzufügen weiterer Platten skalierbar, Verbindungsprobleme können durch austauschbare oder veränderbare Schnittstellen
umgangen werden.
»Durch diese Lösung spart der Anwender nicht nur Geld, sondern auch Zeit,
Administrationsaufwand und Platz«, erläutert Storage-Fachmann Guzek. »Statt
einfach weitere Systeme ins RZ zu stellen,
implementiert man die nächste Generation. Durch Data-in-place geht es sehr
schnell, da eine Migration nicht nötig ist
und die damit verbundene Ausfallzeit
eliminiert wird.«
Foto: Fujitsu
Replikation über alle Modelle und
Standorte hinweg
Unternehmen, die hohe Ausfallsicherheit
benötigen, greifen auf Zweitstandorte
und eine Replikation der Daten auf die
dortigen Systeme zurück. Die EternusArrays boten bislang eine solche Replikation, genannt Remote Copy, nur für baugleiche Modelle an. Durch die erweiterte
Replikationsfähigkeit zwischen unterschiedlichen Modellen lassen sich nun
beispielsweise Midrange- und EnterpriseSysteme gemeinsam nutzen. Das gibt
dem IT-Manager mehr Optionen für seine
Backup-Konfigurationen.
»Das Unternehmen sucht den größtmöglichen Nutzwert in der IT, also auch
bei den Speichersystemen«, meint Guzek.
»Funktionen wie Replikation übergreifend nutzen zu können, macht die Nutzung bestehender Hardware flexibler.
Darüber hinaus verfügt die Eternus-Reihe
über weitere Funktionen, die die Speichereffizienz steigern. Dazu gehören
Storage-Tiering, Thin-Provisioning, Datenverschlüsselung und Deduplizierung.«
Umweltfreundlich auf ganzer Linie
Die integrierte MAID-Technologie erlaubt
es, Festplatten innerhalb der EternusSysteme, auf die kein Zugriff erfolgt, gezielt herunter zu fahren und so Strom zu
sparen. Die Reduzierung der Laufwerksdrehzahl kann dabei zeitlich geplant werden. So ließe sich zum Beispiel konfigurieren, dass, wenn innerhalb von
mindestens zehn Minuten kein Zugriff
stattfindet, die Laufwerksdrehzahl reduziert wird. Wird dann wieder auf diesen
Plattenbereich zugegriffen, beschleunigt
sich die Drehzahl innerhalb einer Minute.
Bei steigenden Strompreisen, erzielen Firmen hier durchaus Einsparungspotenziale.
Für jeden Einsatz das passende
System
Die Eternus-DX-Serie besteht aus sieben
Modellen, die für unterschiedliche Bereiche konzipiert sind. Die DX60 sowie die
DX80/DX90 sind für Einsteigerkonfigurationen geeignet, bei denen der IT-Manager mit kleineren Kapazitäten beginnt,
aber auch Raum für Wachstum und vor
allem Funktionsvielfalt hat. Im MidrangeSegment sind die DX410 und die DX440
angesiedelt, die vor allem mit hoher Performance bestechen. Die Modelle
DX8400 und DX8700 wiederum bedienen die Anforderungen der Enterprisespeicherguide.de K
Umgebungen.
Eine Publikation von speicherguide.de
storage-magazin.de
22 Virtualisierung
Einkaufsführer Storage
Engpässe in virtuellen Storage-Umgebungen verhindern
Mit Speicher virtualisierte
Welten bändigen
Das richtige Speichersystem wird auch den unplanbaren und sich verändernden
Anforderungen virtueller Welten gerecht. Der Druck von Wartungs- und BackupFenstern lässt sich durch flexible Lösungen wie die Lefthand-Serie von HP verringern.
Mit dem entsprechendem Nutzen an Flexibilität, Sicherheit und Skalierbarkeit.
Um flächendeckend Kosten zu
senken und Computerkraft zu
konsolidieren, virtualisiert fast jedes Unternehmen seine ServerUmgebung. Allerdings kann ein
Großteil des Nutzens der Virtualisierung durch unpassenden Speicher wieder eingebüßt werden.
Die Speicherlösung muss gemeinsam
nutzbar sein und zudem einen hohen
Funktionsumfang aufweisen, damit Flexibilität und Kosteneinsparung gewahrt
bleiben. Darüber hinaus ist der IT-Manager oft nicht in der Lage, das Wachstum
und die Entwicklung in seiner virtualisierten Welt genau vorherzusehen, was eine
Planung im Speicherbereich erheblich
erschwert. Mit iSCSI-Lösungen wie den
»LeftHand P4000 SANs« von HewlettPackard lassen sich virtuelle Server-Umgebungen mit allen Vorteilen nutzen.
»Viele Unternehmen erkennen oft
nicht, dass eine Virtualisierungslösung
Planung bis hin zum Speicher erfordert«,
erklärt Guido Klenner, Business Unit
Manager Online-Storage bei HP. »Mögliche Einsparungen gehen durch ineffizienten Speicher verloren. Mit IP-SANs
überwinden Unternehmen die Kostenund Management-Ein­schränkungen herkömmlicher SANs.«
Die Hürden beim Kostensparen
Die Probleme für SAN-Lösungen in einer
virtualisierten Umgebung sind vielfältig.
speicherguide.de
Kann das System Kapazität nicht flexibel
storage-magazin.de
Foto: Hewlett-Packard
[ Ulrike Rieß ]
HP: »Eine Virtualisierungslösung muss bis hin zum
Speicher geplant werden.«
verteilen, so nimmt ein Volume von 100
GByte eben genau 100 GByte ein, obwohl
es vielleicht nur die Hälfte des Platzes
wirklich beansprucht. Des Weiteren erzeugt die Sicherung vieler virtueller Maschinen natürlich auch viel mehr Daten
als zuvor, so beispielsweise Snapshots.
Somit kann sich die benötigte Speicherkapazität schnell mal verdoppeln. Unternehmen, die standortübergreifend arbeiten, müssen zudem Lösungen für
synchrone Replikation und somit ein weiteres System einsetzen. Solche Lösungen
sind meist teuer und komplex. Häufig
müssen mehrere Datenkopien vorgehalten werden, was die Kapazitätsanforderung nach oben schnellen lässt. Nicht
zuletzt macht es das Budget vielen Firmen
schwer, genau zu planen. Häufig fehlt das
nötige Investitionskapital für Lösungen
mit Hochverfügbarkeits- und DisasterRecovery-Funktion (DR) oder auch für
erweitertes Management. Die Balance
zwischen Budget, erforderlichem SAN
und letztlich angeschaffter Lösung ist nur
schwer zu halten.
Eine Publikation von speicherguide.de
Servervirtualisierung braucht
Speichereffizienz
Thin-Provisioning und Clustering sind die
Zauberworte, die Speicher richtig effizient
werden lassen. Die P4000-SANs integrieren beide Funktionalitäten und bieten so
eine Steigerung der Kapazitätsauslastung. Thin-Provisioning ist eine integrierte Funktion in jedem P4000-System. Der
Speicher-Cluster verwaltet sämtliche Speicherzuordnungen in einem logischen
Volume. Speicherbereiche werden nur
dann zugeordnet, wenn das System tatsächlich Daten auf das Volume schreibt.
Dies verschwendet nicht unnötigen Storage-Platz, der letztlich nicht genutzt
wird. In Kombination mit Snapshots erhöht sich die Speicherauslastung erneut,
da auch hier nur der real benötigte Platz
belegt ist.
»Mit einem Thin-Provisioning-Ansatz
kann man die Anforderungen virtueller
Welten erfüllen, ohne gleich zusätzlich
Unmengen an Speicherkapazität ins Rechenzentrum stellen zu müssen«, sagt
Storage-Experte Klenner. »Unseren Berechnungen nach erreichen Unternehmen an einem Standort 33 Prozent mehr
Kapazitätsauslastung gegenüber sonstigen SANs. Bei einer Hochverfügbarkeitskonfiguration lässt sich dieser Wert zusätzlich ver­doppeln.«
Abgesichert mit Hochverfügbarkeit
und Disaster-Recovery
Firmen, die Servervirtualisierung einsetzen, möchten diese auch besonders gegen Ausfälle absichern. Dafür stehen
Oktober 2011
Einkaufsführer Storage
Horizontal skalieren heißt in alle
Richtungen wachsen
Servervirtualisierung bringt vor allem ein
höheres Aufkommen an I/Os mit sich, was
Speichersystemen eine höhere Leistung
bzw. eine skalierbare Leistung abverlangt.
Oft läuft die gesamte Leistungsabfrage
bei zwei Controllern auf, die alle Zugriffe
auf den Festplattenspeicher koordinieren,
was schnell zum Engpass wird. Bei den
meisten Speicherangeboten stellen die
Neukonfiguration von RAID-Gruppen und
Zonen, ein Controller-Upgrade oder der
Kauf eines neuen Speichersystems die
einzigen Möglichkeiten dar, die Bandbreite zu skalieren. Die P4000-Systeme verfügen über eine horizontal skalierbare
Architektur. Jeder hinzugefügte Knoten
bietet Controller-Leistung und Kapazität
und kann so schnell steigende Anforderungen bedienen, sei es nun Speicherplatz oder Performance.
Oktober 2011
HPs skalierbarer SAN-Speicher der P4000-Serie unterstützt Thin-Provisioning
und Clustering.
Foto: Hewlett-Packard
Hochverfügbarkeits- und DR-Szenarien
zur Verfügung, die sich mit der P4000Familie umsetzen lassen. Allerdings erhöht sich der Nutzen einer solchen Konfiguration durch die Virtualisierung, denn
ohne administratorischen Aufwand lässt
sich die Virtualisierungs-Software nach
Serverausfällen wiederherstellen, indem
die virtuellen Maschinen automatisch auf
alternativen Servern neu gestartet werden. Mit Remote-Copys der logischen
Volumes ist sogar eine Wiederherstellung
virtueller Maschinen an einem anderen
Standort möglich. HPs P4000-Systeme
verfügen über synchrone und asynchrone
Replikationsfunktionen und gewährleisten eine hohe Verfügbarkeit, selbst bei
einem Ausfall von Festplatten, Controller,
Speicherknoten, Strom, Netzwerk oder
des ganzen Standorts.
»Wir bieten zudem auch automatischen Failover und Failback, was nicht
selbstverständlich ist«, erläutert HP-Manager Klenner. »Bei den meisten Lösungen muss der EDV-Verantwortliche ein
Failover eines Volumes händisch bearbeiten, was den Nutzen des automatischen
Failover der virtuellen Maschine zunichtemacht. Ähnlich steht es bei dem
­Failback, bei dem manuell eine Synchronisierung der Volumes erforderlich ist. Mit
der Funktionalität, die wir aus der SAN/
iQ-Software erhalten, kann die P4000Serie diese Szenarien automatisch
­ablaufen lassen. Das spart dem Unternehmen Zeit bzw. Aufwand und garantiert
Verfügbarkeit.«
Virtualisierung
Im Verbund leistungsstark: das
Lefthand-Cluster
»Die Speicherknoten unserer iSCSI-SANSerie P4000 lassen sich auch zu einem
Cluster zusammenschließen, was noch
einmal die Hochverfügbarkeit steigert«,
sagt HP-Manager Klenner. »Diese Knoten
können in Speicher-Pools zusammengefasst werden, deren Leistung und Kapazität dann sofort jedem Volume zur Verfügung stehen.«
Jeder einzelne Knoten stellt Netzwerkbreite, Controller-Leistung, Cache und
Festplattenspeicher bereit. Dadurch
wächst das Gesamtleistungsvermö­
gen des Cluster auf all diesen Ebenen
und nicht nur in Kapazität oder I/O-­
Performance. Fügt der IT-Manager einen
weiteren Knoten hinzu, verteilt das SAN
automatisch die neu hinzugewonnen Ressourcen, ohne dabei den laufenden Betrieb zu unterbrechen. Die logischen
Volume-Blöcke werden im gesamten
Speicher-Cluster verteilt und können
dann auf die zahlreichen Knoten zugreifen, die sich als ein Array darstellen.
Zentrales Management bringt
Effizienz und Flexibilität
Das Leistungsmanagementsystem des
P4000-SAN soll eine intuitive Überwachung der SAN-Leistung gestatten, da es
Leistungsinformationen zu jedem Anwendungsserver bzw. jeder virtuellen Maschine, jedem logischen Volume, Snapshot,
Speicher, Cluster und Speichersystem
bereitstellt. Das System verfügt über eine
intuitive Schnittstelle, über die sich mögliche Leistungsprobleme identifizieren und
diagnostizieren lassen.
»Das Management ist so wichtig wie
die Leistungsfähigkeit des Systems«, sagt
Klenner. »Das zentrale und einheitliche
Management verwendet iSCSI-Standardprotokolle, LAN-Standardtechnologie
und ein GUI, damit die Effizienz beim
Administrieren des P4000-SANs nicht ver-
23
loren gehen.« Da sich das SAN transparent als ein Array darstellt, können auch
alle Funktionen transparent ausgerollt
werden. Dynamic-Tiering, Datenmigration, Snapshots, das Austauschen eines
Servers oder das nachträgliche Ändern
von Thin-Provisioning- oder anderen Speicherattributen ist damit zentral möglich.
Das Hinzufügen neuer SANs oder das
Verschieben von Volumes zwischen SANs
erfolgt über eine einzige Managementschnittstelle. Wartungs- oder betriebsbedingte Ausfallzeiten werden so auf ein
Minimum reduziert.
Eine Basis, viele Lösungen
Das P4000-SAN kann in vielen Szenarien
zum Einsatz kommen. Dafür hat der Hersteller sechs unterschiedliche Modelle
konzipiert, die jeweils auf dedizierte Aufgaben abgestimmt wurden, aber rein
technisch über das gleiche hohe Leistungsportfolio verfügen und darüber hinaus untereinander beliebig kombinierbar
sind. So bieten die »P4300 G2 7,2 TB SAS
Starter SAN«-Lösung und das »P4300 G2
16 TB MDL SAS Starter SAN« optimale
Einstiegssysteme für kleinere Virtualisierungsprojekte oder Konsolidierungsvorhaben für Windows- und Linux-Server. Sie
offerieren die Leistung und Funktionen,
die für die Vereinfachung des Speichers
und die unterbrechungsfreie Erweiterung
der Umgebung erforderlich sind. Das
»P4500 G2 14,4 TB SAS Virtualization
SAN« verbessert den verteilt genutzten
Speicher und gewährleistet Hochverfügbarkeit, Skalierbarkeit und unterbrechungsfreie Konfigurationsänderungen.
Die Multi-Site-Lösung »P4500 G2 28,8
TB SAS« soll für Datenverfügbarkeit bei
einem Standortausfall sorgen und integriert automatische Datensicherung mit
synchroner Replikation gepaart mit leistungsstarken SAS-Medien. Für hohe Datenvolumen und Skalierbarkeit eignet sich
das »P4500 G2 120 TB MDL SAS SAN«.
Große Client-Virtualisierungs-Implementierungen, Speicherflexibilität sowie hohe
Speicherdichte und Kosteneffizienz lassen
sich mit der »P4800 G2 63 TB SAS BladeSystem SAN-Lösung« bedienen.
»Das Portfolio veranschaulicht, dass wir
jegliche Szenarien bedienen können«,
bekräftigt Klenner. »Dabei kann der Anwender, egal für welches System er sich
entscheidet, zusätzlich erweitern und
muss sich somit auch vor dem Unplanbaren einer virtuellen Umgebung nicht
fürchten.« speicherguide.de K
Eine Publikation von speicherguide.de
storage-magazin.de
24 Datenspeicherung
Einkaufsführer Storage
Marktübersicht NAS-Server
Speicherbedarf analysieren
und Engpässe vermeiden
Moderne NAS-Systeme sind heute schnell, relativ einfach skalierbar und integrieren sowohl
Datenmanagement als auch Monitoring-Funktionen. Hinzukommen Sicherheits-Features wie
Snapshots, Replikation sowie Disaster-Recovery-Optionen. Beim Kauf gilt es Engpässe zu
vermeiden und die Produktgrenzen zu kennen.
[ Karl Fröhlich ]
Für Wolfgang Bauer, Technischer Leiter bei EUROstor gibt es lediglich zwei
Kriterien, die ein NAS neben einer guten
Performance zu leisten hat: »Einmal sollte es sich sowohl in Linux- als auch in
Windows-Welten einbinden lassen. Dies
bedeutet aber, dass entsprechende Dienste wie Active-Directory unterstützt sein
müssen. Andernfalls wären Firmen mit
einem normalen Fileserver auf Windows
oder Linux besser bedient.« Zweitens sollte es eine übersichtliche und schnelle
Management-Oberfläche besitzen, welche auch bei sehr vielen Usern die Verwaltung der Zugriffsrechte überschaubar
und einfach gestaltet.
»Ein gutes NAS System zeichnet sich
zudem durch eine hohe Skalierbarkeit der
Kapazität in TByte bzw. PByte aus sowie
in der Anzahl von Dateien oder Objekten
pro Verzeichnis«, ergänzt Uwe Angst,
NAS Business Manager bei Hitachi
Data Systems. »Hinzu kommt die Skalierbarkeit für Scale-out (Anzahl der Nodes pro Cluster) und Scale-up (Perfor-
mance pro Node-Modell) und Scale-deep
(Anzahl der virtualisierbaren Systeme
hinter dem NAS-System). Hochwertige
Systeme bieten eine hohe Ausfallsicherheit durch 99,999 Prozent Uptime und
der Möglichkeit, einem Cluster online
weitere Nodes hinzuzufügen.« Auch sollten IT-Manager auf einen niedrigen Energieverbrauch achten, gemessen in Euro
pro IOPs und im physikalischen Footprint
im Rechenzentrum.
Leistung: Engpässe vermeiden
Um Geschwindigkeits-Engpässe weitgehend auszuschließen, gilt es im Vorfeld
den eigenen Bedarf zu kennen und auf
die Ausstattung zu achten. Im reinen NAS
Betrieb spielen CPU-Leistung und
Speicherbestückung im Prinzip eine eher
untergeordnete Rolle – sofern Aufgaben
wie die RAID-Verwaltung von einem separaten Prozessor, sprich einem Hardware-RAID, erfüllt werden. Muss die
System-CPU, außer für das Betriebssystem, auch noch weitere Aufgaben wie
unter anderem eben die RAID-Verwaltung
übernehmen, geraten Systeme mit zu
gering ausgelegten Prozessoren sehr
schnell an ihre Leistungsgrenze, was sich
dann negativ auf Antwortzeiten und
Datenübertragungsraten auswirkt. Hin­
zukommt, dass heute viele Systeme Unified-Storage-Funktionen wie Soft­wareiSCSI-Targets anbieten. Eine Aufga­be, die
ebenfalls der System-Prozessor zu verarbeiten hat. Hier wirkt sich die Investition
in eine etwas üppigere Speicherausstattung durchaus positiv aus. In der Praxis
sollte ein Business-NAS daher Minimum
mit einem Dual-Core-Xeon-Prozessoren
und schnellem DDR3-Speicher bestückt
sein. Mit der Option bei Bedarf eine zweite CPU nachrüsten und den Arbeitsspeicher erweitern zu können.
NAS: vorrangige Kaufkriterien
»Leider ist heute oftmals zunächst der
Anschaffungspreis das Kriterium«, bemängelt Martin Huber, Geschäftsführer bei N-Tec, das Kaufverhalten vieler
IT-Einkäufer. »Dass zwischen einem SoHoProdukt und einem Midrange- oder Enterprise-NAS in der Regel außer dem Preis
auch ein gewaltiger Unterschied in der
Weitere Informationen
Ausführliche Version des Artikels auf speicherguide.de
www.speicherguide.de/Datenspeicherung/NAS/tabid/205/articleType/ArticleView/articleId/14529/default.aspx
NAS-Systeme auf speicherguide.de
www.speicherguide.de/Datenspeicherung/NAS/tabid/205/Default.aspx
Marktübersicht NAS-Server
www.speicherguide.de/Loesungen/Marktuebersichten/tabid/228/Default.aspx?mue=4
speicherguide.de
storage-magazin.de
Eine Publikation von speicherguide.de
Oktober 2011
SIMPLE
STORAGE
Introducing EMC® VNX™. So simple a fifth grader can manage it.
EMC2, EMC, and the EMC logo are registered trademarks or trademarks of EMC Corporation
in the United States and other countries. © Copyright 2011 EMC Corporation. All rights reserved.
26 ???????????????
890
Datenspeicherung
Einkaufsführer Storage
Storage
Einkaufsführer
Fortsetzung von Seite 8
Adressen Seite 26
Leistung besteht, merken Unternehmen
oft erst, wenn das sehr preisgünstige Gerät schnell an seine Leistungsgrenzen
stößt und die Daten nicht mehr in ausreichender Geschwindigkeit zur Verfügung
gestellt werden können.«
Grundsätzlich sollten sich Unternehmen vor dem Kauf bewusst machen,
welche Aufgaben mit dem zu beschaffenden NAS erledigt werden sollen. Welche Anzahl an Benutzern ständig und
regelmäßig auf dem System arbeiten und
welche Datenmenge das Gerät auf län­
gere Sicht (ca. 3 - 5 Jahre) zu bewältigen
haben wird? »Weiter spielen die schnelle
Erweiterung der Kapazität (ohne Stillstandzeiten) und die Ansprüche an die
Verfügbarkeit (Replikation, Spiegelung)
ein wichtige Rolle«, erklärt Huber. »Auch
die Möglichkeit zur Nachrüstung weiterer
Schnittstellen für Einbindung in neue Infrastrukturen (10 GbE, FCoE) oder zur
Steigerung der Netzwerkleistung sollte,
zumindest bei Midrange- und EnterpriseSystemen, vorhanden sein.«
NAS: Markt & Entwicklung
»Scale-Out-Systeme werden in den nächsten Jahren weiter an Bedeutung gewinnen, durch die Flexibilität bei der Erweiterung von Kapazität und von Performance
(Knoten)«, erwartet Robert Guzek, Produkt Marketing Manager Eternus bei
Fujitsu Technology Solutions.
»Derzeit finden diese horizontal skalierbaren NAS-Lösungen nur bei sehr speziellen Anwendungsfällen Verwendung
und sind deswegen nur mit besonders
hohem Aufwand nutzbar«, ergänzt Net­
App-Manager Herbert Bild. »In Zukunft
werden sich aber Funktionalitäten wie
Cluster-File-Systeme und Global-Namespace immer mehr verbreiten. Betrachtet
man die Zukunft von NAS, spielt auch das
Thema Big Data eine Rolle. Unternehmen
sind mehr und mehr auf Rich-Media angewiesen, die hohe Anforderungen an
Performance und Speicherkapazität stellen. Dazu zählen optische und akustische
Dateien, wie beispielsweise Video oder
Animation beinhalten.«
Dies ist eines der am schnellsten wachsenden Marktsegmente und werde im
Speziellen die Innovationskraft der einzelnen Storage-Hersteller fordern. Diesbezüglich werden auch SSD und Flash-Speicher eine interessante Option für die
speicherguide.de
K
nächsten Jahre.
storage-magazin.de
Fachhändler für Storage-Systeme
INS Systems GmbH
Industriestraße 4-6,
61440 Oberursel
Tel. 061 72/936 50
Fax 061 72/93 65 40
www.ins-online.de
6
Concat AG
Berliner Ring 127-129,
64625 Bensheim
Tel. 062 51/702 60
Fax 062 51/702 64 44
info@concat.de
www.concat.de
Cenit AG Systemhaus
Industriestraße 52-54,
70565 Stuttgart
Tel. 07 11/78 25 30
Fax 07 11/782 54 00 0
info@cenit.de, www.cenit.de
Data Group IT Services
Holding AG
Wilhelm-Schickard-Straße,7
72124 Pliezhausen
Tel. 071 27/97 00 00
Fax 071 27/97 00 33
kontakt@datagroup.de
www.datagroup.de
Topmedia
Kasteler Straße 22-24,
65203 Wiesbaden
Tel. 06 11/411 10
Fax 06 11/41 11 22
info@topmedia.de
www.topmedia.de
Trigonova GmbH
Madertal 15, 72401 Haigerloch
Tel. 074 74/95 18 0-0, Fax -29
info@trigonova.de
www.trigonova.de
Semico Computer GmbH
Daimlerring 4,
65205 Wiesbaden
Tel. 061 22/700 60
Fax 061 22/70 06 50
info@semico.de
www.semico.de
Carpe diem
Dotzheimer Straße 95,
65197 Wiesbaden
Tel. 06 11/95 17 50
Fax 06 11/59 03 62
anfrage@carpediem.de
www.carpediem.de
Bürotex GmbH Systemhaus
Max-Eyth-Straße 21,
72622 Nürtingen
Tel.07022/2790 0
Fax07022/2790 499
info@metadok.de
www.metadok.de
Inneo Solutions GmbH
Rindelbacher Straße 42,
73479 Ellwangen
Tel. 079 61/89 00
Fax 079 61/89 01 77
inneo-de@inneo.com
www.inneo.de
Bechtle AG
Bechtle Platz 1,
74172 Neckarsulm
Tel. 071 32/981 0
Fax 071 32/981 80 00
info@bechtle.com, www.bechtle.com
Esell GmbH
Halbergstraße 46,
66121 Saarbrücken
Tel. 06 81/88 39 30
Fax 06 81/883 93 11
info@esell.de
www.esell.de
BASF IT Services Holding
GmbH
Jaegerstr. 1,
67059 Ludwigshafen
Tel. 06 21/60 99 500
Fax 06 21/60 99 555
www.basf-it-services.com
BS Backup Solutions GmbH
Im Geiger 60, 70374 Stuttgart
Tel. 07 11/53 06 92 80
Fax 07 11/53 06 92 86
info@backupsolutions.de
www.backupsolutions.de
7
CNK Networks GmbH
Becker-Göring-Straße 26/1,
76307 Karlsbad
Tel. 072 48/915 00
Fax 072 48/91 50 50
nfo@cnk-networks.de
www.cnk-networks.de
Leitwerk GmbH
Im Ettenbach 13a,
77767 Appenweier-Urloffen
Tel. 078 05/91 80,
Fax 078 05/91 82 000
info@leitwerk.de,
www.leitwerk.de
Comtri GmbH
Leinfelder Straße 60,
70771 Leinfelden-Echterdingen
Tel. 07 11/90 27 80
Fax 07 11/90 27 88
info@comtri.de, www.comtri.de
Assistra AG
Rotkreuzplatz 1,
80634 München
Tel. 089/96 99 97 60.
Fax 089/96 99 97 66
sales@assistra.com,
www.assistra.de
Netzwerk GmbH
Kurze Straße 40,
70794 Filderstadt-Bonlanden
Tel. 07 11/220 54 98 0
Fax 07 11/220 54 99 77
info@netzwerk.de
www.netzwerk.de
MCE – ETV GmbH
Helene-Wessel-Bogen 11,
80939 München
Tel. 089/318 56 20,
Fax 089/311 52 07
vertrieb@mce-etv.com,
www.mce-etv.com
speicherguide.de
Eine Publikation von speicherguide.de
8
Didas AG
Schatzbogen 50,
81829 München
Tel. 089/42 04 60,
Fax 089/42 04 61 08
nruete@didas.de, www.didas.de
Tproneth GmbH & Co. KG
Zeppelinstraße 4,
82178 Puchheim
Tel. 089/44 23 10,
Fax 089/44 23 15 16
info@tproneth.de,
www.tproneth.de
Cancom Deutschland GmbH
Ridlerstraße 37
80339 München
Tel.: 089/5 40 54-0, Fax: -119
info@cancom.de,
www.cancom.de
Stemmer GmbH
Peter-Henlein-Straße 2,
82140 Olching
Tel. 081 42/458 61 00,
Fax 081 42/458 61 99
info@stemmer.de,
www.stemmer.de
Teracuda GmbH
Edisonstraße 3, 85716
Unterschleißheim
Tel. 089/32 38 51 00,
Fax 089/32 38 51 99
info@teracuda.de,
www.teracuda.de
NCS GmbH
Curt-Frenzel-Straße 12,
86167 Augsburg
Tel. 08 21/748 50-0, Fax: -10
info@ncs.de, www.ncs.de
MR Datentechnik
Vertriebs- und Service
GmbH
Emmericher Straße 13,
90411 Nürnberg
Tel. 09 11/52 14 71 00,
Fax 09 11/52 14 71 11
mr@mr-daten.de,
www.mr-daten.de
9
Sandata EDV-Systemhaus
GmbH
Emmericher Straße 17,
90411 Nürnberg
Tel. 09 11/952 30,
Fax 09 11/952 32 21
info@sandata.de,
www.sandata.de
GL Consult
Virnsbergerstraße 22,
90431 Nürnberg
Tel.: 09 11/941169-0,
Fax: 09 11/941169-1
info@glconsult.com,
www.glconsult.com
HWS Informationssysteme
GmbH
Ringstraße 10, 91413
Neustadt/Aisch
Tel. 09 11/21 77 10,
Fax: 09 11/21 77 17 77
info@hws-gruppe.de,
www.hws-infosysteme.de
Oktober 2011
2010
Accelerating Your Success™
Anspruchsvolle IT-Distribution
orientiert sich am Kunden
Das Avnet Storage-Team greift auf ein Portfolio leistungsfähiger Produkte und Dienstleistungen zurück, die alle
auf den Mehrwert und Geschäftserfolg unserer Partner ausgerichtet sind:
Markenprodukte weltweit führender Storage-Hersteller
Erstklassige technische Services
Kundenorientierte Value-Services – von der Finanzierung bis zur Schulung
Umfassende Produkt- und Technologiekenntnisse
Wir sehen es als unsere ständige Aufgabe, aus diesen leistungsorientierten Möglichkeiten Gesamtlösungen zu
entwickeln, die den geschäftlichen Anforderungen der Endkunden Rechnung tragen.
Wie wir Sie auf dem Weg zur optimalen Storagelösung unterstützen können, erfahren Sie von
Ihrem Avnet-Ansprechpartner oder über unser Storageportal www.ts.avnet.com/de/storage
© 2011 Avnet, Inc. All rights reserved. The Avnet Technology Solutions logo is a registered trademark of Avnet, Inc. All other products, brands and names are trademarks or registered
trademarks of their respective owners.
28 Datenspeicherung
Einkaufsführer Storage
AMI
www.ami.de
www.stortrends.com
Bluearc Germany
www.bluearc.com
Boston Server &
Storage Solutions
www.bostondeutschland.de
Preis (netto in Euro)
Online Kapazitäts­
erweiterung
Disk-Technik
Max. Disk-Anzahl
RAID-Level
Max. Brutto­kapazität
in TByte
Produktname
Hersteller
Marktübersicht NAS-Systeme
StorTrends 3200 j
32
0, 1, 5, 6, 10, 50, 60
16
SATA, SAS
K
ab 8.700
StorTrends 3200 N
32
0, 1, 5, 6, 10, 50, 60
16
SATA, SAS, SSD
K
ab 13.400
Mercury 110
8 PByte
0, 1, 5, 6, 10
k.A.
FC, SAS, SATA, SSD
K
ab 46.000
Mercury 55
4 PByte
0, 1, 5, 6, 10
k.A.
FC, SAS, SATA, SSD
K
ab 32.000
Titan 3100
8 PByte
0, 1, 5, 6, 10
k.A.
FC, SAS, SATA, SSD
K
ab 69.000
Titan 3200
16 PByte
0, 1, 5, 6, 10
k.A.
FC, SAS, SATA, SSD
K
ab 106.000
Igloo MID-4T-Stor
4
0, 1, 5, 10
4
SAS, SATA
optional
ab 1.655
Igloo 1U-8T-Stor
8
0, 1, 5, 6, 10, 50, 60
4
SAS, SATA
optional
ab 3.333
Igloo 2U-12T-Stor
12
0, 1, 5, 6, 10, 50, 60
12
SAS, SATA
optional
ab 4.439
Igloo 4U-36T Cluster
36
0, 1, 5, 6, 10, 50, 60
36
SAS, SATA
optional
ab 19.170
ab 2.487
Igloo 1U-2.4T-Stor-10GCX4
2,4
0, 1, 5, 6, 10, 50, 60
8
SAS, SATA
optional
Igloo 4U-72T-Stor-10GCX4
72
0, 1, 5, 10
36
SATA
optional
ab 6.963
Igloo 3U-24 NXStor SBB
24
RAID Z, Z2, Z3
16
SAS
optional
ab 29.415
TeraStation III iSCSI Rackmount
4/8
0, 1, 5, 10, JBOD
4
SATA
k
ab 1.289
TeraStation III Rackmount
4/8
0, 1, 5, 10, JBOD
4
SATA
k
ab 1.089
4/8/12
0, 1, 5, 6, 10, JBOD
4
SATA
k
ab 1.479
4/8
0, 1, 5, JBOD
4
SATA
k
ab 1.859
PowerVault NX300
8
0, 1, 5, 6, 10
4
SATA
k
ab 1.749
PowerVault NX3000
12
0, 1, 5, 6
6
SAS, SATA
k
ab 5.326
PowerVault NX3100
24
0, 1, 10, 5, 50, 6
12
SAS, Nearline SAS
k
ab 6.849
Drobo
www.drobo.com/de
Drobo B1200i
36
BeyondRAID
12
SATA
K
ab 7.900
Eurostor
www.EUROstor.com
ES-8708DSS
24
0, 1, 3, 5, 6, JBOD
8
SAS, SATA
K
ab 4.630
ES-8708DSS-1U
8
0, 1, 3, 5, 6, JBOD
8
SAS, SATA
K
ab 5.460
ES-8716DSS
48
0, 1, 3, 5, 6, JBOD
16
SAS, SATA
K
ab 6.180
ES-8724DSS
72
0, 1, 3, 5, 6, JBOD
24
SAS, SATA
K
ab 7.840
ES-8724DSS-2U
24
0, 1, 3, 5, 6, JBOD
24
SAS, SATA
K
ab 9.630
ES-8736DSS
108
0, 1, 3, 5, 6, JBOD
36
SAS, SATA
K
ab 10.100
ES-2808DSS
24
0, 1, 3, 5, 6, JBOD
8
SAS, SATA
K
ab 5.700
ES-2808DSS-1U
8
0, 1, 3, 5, 6, JBOD
8
SAS, SATA
K
ab 5.820
ES-2816DSS
48
0, 1, 3, 5, 6, JBOD
16
SAS, SATA
K
ab 7.840
ES-2824DSS
72
0, 1, 3, 5, 6, JBOD
24
SAS, SATA
K
ab 11.650
ES-2824DSS-2U
24
0, 1, 3, 5, 6, JBOD
24
SAS, SATA
K
ab 13.440
ES-2836DSS
108
0, 1, 3, 5, 6, JBOD
36
SAS, SATA
K
ab 19.620
BettyNET III Serie 4
12
0, 1, 5, 6, 10, JBOD
4
SATA
K
ab 1.200
BettyNET III Serie 8
24
0, 1, 5, 6, 10, JBOD
8
SATA
K
ab 2.510
BettyNET III Serie 16
48
0, 1, 5, 6, 10, JBOD
16
6 Gbit SAS/SATA
K
ab 7.900
StorageWorks X3400 Network Storage Gateway
4,3
0,1, 1+0, 5, 5+0, 6, 6+0
k.A.
SATA, SAS
K
ab 4.010
StorageWorks X3800 G2 Network Storage
Gateway
4,3
0,1, 1+0, 5, 5+0, 6, 6+0
k.A.
SATA, SAS
K
ab 6.410
Buffalo Technology
www.buffalo-technology.de
TeraStation ProSerie Rackmount
TeraStation Pro Rackmount Windows Storage
Server 2008
Dell
www.dell.de
Gruppemedia
www.gruppemedia.de
Hewlett-Packard
www.hp.com/de
192
5, 6
48
SATA, SAS
K
ab 95.000
1,3 PByte
6
k.A.
SAS
K
ab 110.000
HNAS 3080
4 PByte
1, 5, 6, 10
k.A.
FC, SAS, SATA, SSD
K
ab 34.000
HNAS 3090
8 PByte
1, 5, 6, 10
k.A.
FC, SAS, SATA, SSD
K
ab 50.000
HNAS 3200
16 PByte
1, 5, 6, 10
k.A.
FC, SAS, SATA, SSD
K
ab 110.000
System Storage N series N3300
136
4, DP (6)
68
SAS, SATA, FC
K
ab 4.599
System Storage N series N3400
272
4, DP (6)
136
SAS, SATA, FC
K
ab 5.299
System Storage N series N6210
480
4, DP (6)
240
SAS, SATA, FC
K
ab 8.900
System Storage N series N6240
1.200
4, DP
600
SAS, SATA, FC
K
ab 17.900
System Storage N series N6270
1.920
4, DP
960
SAS, SATA, FC
K
ab 39.900
System Storage N series N7950T
4.320
4, DP
1.440
SAS, SATA, FC
K
ab 109.900
Sandico 12bay ybto20
36
0, 1, 10, 5, 6, 50
12
SAS, SATA
K
ab 1.999
Sandico 24bay ybto21
24
0, 1, 10, 5, 6, 50
24
SAS, SATA
K
ab 2.999
Sandico 12bay ybto30
48
0, 1, 10, 5, 6, 50
16
SAS, SATA
K
ab 2.349
StorCenter px4-300r Network Storage Array
8
0, 1, 10, 5, 5+1 (hot spare), 6
4
SATA II
K
ab 2.149
StorCenter px4-300r Network Storage Array
12
0, 1, 10, 5, 5+1 (hot spare), 6
4
SATA II
K
ab 2.849
StorCenter ix12-300r Network Storage Array
4
0, 1, 10, 5, 5+1 (hot spare), 6
4
SATA II
K
ab 3.699
StorCenter ix12-300r Network Storage Array
8
0, 1, 10, 5, 5+1 (hot spare), 6
12
SATA II
K
ab 4.249
StorCenter px12-350r Network Storage Array
8
0, 1, 10, 5, 5+1 (hot spare), 6
12
SATA II
K
ab 4.249
StorCenter px12-350r Network Storage Array
12
0, 1, 10, 5, 5+1 (hot spare), 6
12
SATA II
K
ab 4.999
StorageWorks X9320 Network Storage System
X9720 Network Storage System
Hitachi Data Systems
www.hds.com
IBM
www-03.ibm.com/systems/
de/storage/network/
ICO
www.ico.de
Iomega
www.iomega.de
Fortsetzung auf Seite 30
speicherguide.de
storage-magazin.de
Eine Publikation von speicherguide.de
Oktober 2011
30 Datenspeicherung
Einkaufsführer Storage
Fortsetzung von Seite 28
Netgear
www.netgear.de
N-TEC
www.ntecgmbh.de
Overland Storage
www.overlandstorage.com
Online Kapazitäts­
erweiterung
Lynx NAS 1128M
12
0, 1, 5, 6, 10, 50, 60
4
SSD, SAS, SATA
K
ab 1.200
Lynx NAS 2240M
24
0, 1, 5, 6, 10, 50, 60
8
SSD, SAS, SATA
K
ab 2.200
Lynx NAS 3240M
48
0, 1, 5, 6, 10, 50, 60
16
SSD, SAS, SATA
K
ab 2.500
Lynx NAS 4240M
72
0, 1, 5, 6, 10, 50, 60
24
SSD, SAS, SATA
K
ab 3.900
Lynx NAS 4242M
108
0, 1, 5, 6, 10, 50, 60
36
SSD, SAS, SATA
K
ab 4.500
Lynx NAS 2240L
24
0, 1, 5, 6, 10, 50, 60
8
SSD, SAS, SATA
K
ab 2.000
Lynx NAS 3240L
48
0, 1, 5, 6, 10, 50, 60
16
SSD, SAS, SATA
K
ab 2.300
Lynx NAS 4240L
72
0, 1, 5, 6, 10, 50, 60
24
SSD, SAS, SATA
K
ab 3.700
Lynx NAS 4242L
108
0, 1, 5, 6, 10, 50, 60
36
SSD, SAS, SATA
K
ab 4.300
Storageserver EN O13000-4R
4
0, 1, 5, 10, 50, JBOD
4
SAS, SATA II
K
ab 1.479
Storageserver EN O25000-12
12
0, 1, 5, 6, 10, 50, JBOD
12
SAS, SATA II
K
ab 2.269
Storageserver EN O35000-16
16
0, 1, 5, 6, 10, 50, JBOD
16
SAS, SATA II
K
ab 2.679
ProNAS 4-8000
8
0, 1, 5, 10, 50, JBOD
4
SATA II
K
ab 949
NDL-3016R/L
16
0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD
16
6 Gbit/s SAS, SATA
K
5.440
NDL-3024R/L
48
0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD
24
6 Gbit/s SAS, SATA
K
6.560
NDL-3224R/L
24
0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD
24
6 Gbit/s SAS, SATA
K
7.990
NDL-3016R/W
32
0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD
16
SAS, SATA II
K
6.230
NDL-3024R/W
48
0, 1, 1E, 3, 5, 6, 10, 50, 60, JBOD
24
SAS, SATA II
K
7.750
NDL-2450R-S
8
0, 1, 5, 6, 10
4
SATA II
K
ab 1.150
(mit 4x 1 TByte)
NDL-2450R-R
8
0, 1, 5, 6, 10
4
SATA II
K
ab 1.390
(mit 4x 1 TByte)
NDL-2800R+
16
0, 1, 5, 6, 10
8
SATA II
K
ab 2.220
(mit 8x 1 TByte)
NDL-2800SR
24
0, 1, 5, 6, 10
8
SAS, SATA II
K
ab 2.550
(mit 8x 1 TByte)
NDL-21200R
36
0, 1, 5, 6, 10, 50, 60
12
6 Gbit/s SAS, SATA II
K
ab 5.330
(mit 12x 2 TByte)
NDL-21600R
48
0, 1, 5, 6, 10, 50, 60
16
6 Gbit/s SAS, SATA II
K
ab 6.470
(mit 16x 2 TByte)
FAS2020
68
4, 6 (DP)
68
SAS, FC, SATA
K
ab 5.499
FAS2040
136
4, 6 (DP)
136
SAS, FC, SATA
K
ab 19.000
FAS2050
104
4, 6 (DP)
104
SAS, FC, SATA
K
ab 16.900
FAS3210
720
4, 6 (DP)
240
FC, SATA, SAS
K
ab 51.000
FAS3240
1.800
4, 6 (DP)
600
FC, SATA, SAS,SSD
K
ab 61.300
FAS3270
2.880
4, 6 (DP)
960
FC, SATA, SAS, SSD
K
ab 104.800
Preis (netto in Euro)
Disk-Technik
Netapp
www.netapp.de
Max. Disk-Anzahl
NASdeluxe
www.starline.de
RAID-Level
Prostor
www.prostor.de
Max. Brutto­kapazität
in TByte
Lynx IT Systeme
www.lynx-it-systeme.com
Produktname
Hersteller
Marktübersicht NAS-Systeme
FAS6210
3.600
4, 6 (DP)
1.200
FC, SATA, SAS, SSD
K
ab 118.800
FAS6240
4.320
4, 6 (DP)
1.440
FC, SATA, SAS, SSD
K
ab 142.500
FAS6280
4.320
4, 6 (DP)
1.440
FC, SATA, SAS, SSD
K
ab 167.200
12
0,1,5,10, X-RAID2
4
SATA
K
1.008 (o. HDDs)
ReadyNAS Pro 6
ReadyNAS 1500
12
0,1,5,10, X-RAID2
4
SATA
K
1.027 (4x 1 TByte)
ReadyNAS 2100
12
0,1,5,10, X-RAID2
4
SATA
K
1.260 ( 4x 1 TByte)
ReadyNAS 3100
12
0,1,5,10, X-RAID2
4
SATA
K
3.239 (4x 1 TByte)
ReadyNAS 3200
24
0,1,5,6,10, X-RAID2
12
SATA
K
4.678 (6x 1 TByte)
ReadyNAS 4200
36
0,1,5,6,10, X-RAID2
12
SATA
K
6.953 (12x 1 TByte)
rapidNAS CX MS204-G4
8
0, 1, 10, 3, 5, 6,
k.A.
SAS, SATA II
K
ab 1.348
rapidNAS CX MS208-G4
16
0, 1, 10, 3, 5, 6,
k.A.
SAS, SATA II
K
ab 2.425
rapidNAS DSS104-G4
8
0, 1, 10(1E), 3, 5, 6, 30, 50, 75
k.A.
SAS, SATA II
K
ab 2.158
rapidNAS DSS208-G4
16
0, 1, 10(1E), 3, 5, 6, 30, 50, 76
k.A.
SAS, SATA II
K
ab 2.965
rapidNAS DSS316-G4
32
0, 1, 10(1E), 3, 5, 6, 30, 50, 79
k.A.
SAS, SATA II
K
ab 3.731
rapidNAS DSS524-G4
48
0, 1, 10(1E), 3, 5, 6, 30, 50, 80
k.A.
SAS, SATA II
K
ab 5.057
rapidNAS DSS848-G4
96
0, 1, 10(1E), 3, 5, 6, 30, 50, 80
k.A.
SAS, SATA II
K
ab 8.473
rapidNAS MS104-G4
8
0, 1, 10(1E), 3, 5, 6, 30, 50, 60
k.A.
SAS, SATA II
K
ab 2.035
rapidNAS MS208-G4
16
0, 1, 10(1E), 3, 5, 6, 30, 50, 62
k.A.
SAS, SATA II
K
ab 3.227
rapidNAS MS316-G4
32
0, 1, 10(1E), 3, 5, 6, 30, 50, 64
k.A.
SAS, SATA II
K
ab 3.861
rapidNAS MS524-G4
48
0, 1, 10(1E), 3, 5, 6, 30, 50, 65
k.A.
SAS, SATA II
K
ab 5.238
rapidNAS MS848-G4
96
0, 1, 10(1E), 3, 5, 6, 30, 50, 65
k.A.
SAS, SATA II
K
ab 8.415
SnapServer N2000
24
0, 1, 5, 6, 10
72
SAS, SATA II
K
ab 3.800
SnapServer410
8
0, 1, 5, 6, 10
4
SATA II
k
ab 1.500
SnapSAN S1000
24
0, 1, 0+1, 3, 5, 6, 10, 30, 50, 60, N-way
mirror, JBOD
12
SAS, SATA II
K
ab 2.600
SnapSAN S2000
24
0, 1, 5, 6, 10, 50, 60
12
SAS, SATA II
K
ab 5.800
SnapServer DX1
12
0, 1, 5, 6, 10, DynamicRAID
4
SATA
K
ab 1.250
SnapServer DX2
36
0, 1, 5, 6, 10, DynamicRAID
12
SAS, SATA II
K
ab 3.380
Quelle: speicherguide.de
speicherguide.de
storage-magazin.de
Eine Publikation von speicherguide.de
Oktober 2011
Was hat WAN-Optimierung mit Storage zu tun?
Die Lösungen von Silver Peak sind
das fehlende Puzzleteil, wenn es um
effektiven Durchsatz zwischen
Rechenzentren geht.
Die positiven Auswirkungen der Silver
Peak Produkte zeigen wir Ihnen gerne
in einem persönlichen Gespräch oder rufen Sie uns an unter
Tel. +49 8105 370 370
Ihr Partner für Silver Peak Lösungen und Produkte
Orchestra Service GmbH
Web: www.orchestra.de
Mail: info@orchestra.de
32 Datensicherung
Einkaufsführer Storage
Marktübersicht Disk-Backup-Systeme
Disk-Backup – Dedup die
perfekte Ergänzung
Eine Datensicherung muss schnell und effizient sein. Vor allem, wenn das täglich zu sichernde
Datenvolumen im TByte-Bereich liegt. Disk-Backup-Systeme beschleunigen das Backup &
Recovery und reduzieren in Kombination mit Dedup den Hardware- und Investitionsbedarf.
[ Karl Fröhlich ]
Das täglich zu sichernde Datenvolumen ist längst im TByteBereich angekommen. Einer Umfrage von speicherguide.de
zufolge müssen rund 20 Prozent der befragten Unternehmen
(Region DACH) mehr als zehn TByte pro Tag sichern. Knapp 13
Prozent hantieren täglich mit bis zu zwei TByte. Insgesamt liegt
das Sicherungsvolumen bei zirka 60 Prozent bei über einem
TByte. Für IT-Abteilung gilt es daher große Datenmengen schnell
zu sichern. Die Zeiten, in denen Firmen über Nacht ihr Backup
erstellt haben, sind vorbei. Einerseits sind die Zeitfenster zu kurz,
andererseits ist vielen der Abstand von einem Tag zu lang. Die
Lösung: Disk-Backup.
Für Disk-Backup spricht vor allem das schnelle Recovery
sowie die Verkürzung des Sicherungsfensters. Die einfachere
Verwaltung und Handhabung gegenüber Tape ist für rund
25 Prozent vorrangiges Kaufkriterium.
speicherguide.de
speicherguide.de
storage-magazin.de
Eine Publikation von speicherguide.de
54 Prozent der befragten speicherguide.de-Leser arbeiten seit
über zwei Jahren mit einem entsprechenden Ansatz. Bei 19
Prozent ist die Laufzeit noch etwas kürzer. Disk-Backup ist nicht
mehr länger nur großen Unternehmen mit »dicken Budgets«
vorbehalten. Neue Systeme unterstützen nun auch bei KMUs
ein schnelles Backup bzw. Recovery sowie Funktionen wie Replikation. Viele Firmen wechseln aber bereits zur zweiten DiskBackup-Generation.
Das Interesse von IT-Verwaltern war von Beginn an sehr groß.
Zu einem festen Bestandteil der unternehmensweiten BackupRecovery-Strategie hat sich die Technik dann in den vergangenen
fünf bis sechs Jahren entwickelt. »Die Festplatten sind nicht nur
stark in den Datensicherungsbereich eingedrungen, sondern
dienen auch erfolgreich als zuverlässiges, schnelles und relativ
günstiges Medium zur Archivierung von Unternehmensdaten«,
sagt Dr. Georgios Rimikis, Manager Solutions Strategy bei
Hitachi Data Systems. »Diese Tendenz wird sich in den nächsten Jahren noch verstärken, denn Flash-Disks etablieren sich
mittlerweile im primären Speicherbereich. Sie kommen insbesondere bei Anwendungen mit hohen Performance-Anforderungen zum Einsatz.« SSDs verschieben künftig die preis­
günstigen Kapazitätsplatten (SATA) in das Backup-Segment.
»Die Basisanforderungen an das Disk-Backup haben sich über
die Jahre kaum verändert, wenn wir die SLAs oder RTO/RPO
betrachten«, ergänzt Frank Herold, Manager Presales und
Consulting Central & Eastern Europe bei Quantum. »Disk
soll in erster Linie ein schnelles Restoring ermöglichen. Hinzugekommen ist die bezahlbare Möglichkeit von Disaster-Recovery für kleine und mittelgroße Kunden mittels Replikation deduplizierter Daten.« Dies war bis vor ein, zwei Jahren nur
Großkunden mit entsprechenden Budgets vorbehalten. Mittlerweile geht es in IT-Abteilungen aber nicht mehr darum DiskBackup einzuführen, sondern die ersten »Gehversuche« zu
migrieren bzw. zu erweitern.
Disk-Backup: Dedup perfekte Ergänzung
Als ideale Ergänzung zu Disk-Backup gilt die Datendeduplizierung (Dedup). Doch obwohl das Thema Medien und Branche
Oktober 2011
34 Datensicherung
Einkaufsführer Storage
schon länger beschäftigt, sind viele ITAbteilungen trotzdem skeptisch. Knapp
43 Prozent der von speicherguide.de befragten Leser nutzen Dedup nicht. Dem
stehen 30 Prozent Nutzer gegenüber und
bei knapp 26 Prozent ist die Technik in
der Planung.
Datenstruktur gibt die
Dedup-Raten vor
Die Branche stellt die Technik in einem
möglichst positiven Licht dar: Dedup steigert die Effizienz, reduziert das Datenvolumen sowie die benötigten Bandbreiten
und verringert dadurch Investitionen in
neue bzw. leistungsfähigere Hardware.
Gleichzeitig wird die Geschwindigkeit
erhöht und insgesamt Kosten eingespart.
Grundsätzlich scheint die Mehrheit aller, die Dedup aktuell einsetzen, mit den
Ergebnissen zufrieden zu sein. Die von
speicherguide.de befragten Leser geben
zum Teil Werte von bis zu 80 Prozent und
mehr an. Wobei es aber auf die Daten
selbst ankommt, nicht alle lassen sich
gleich gut reduzieren.
»Die Datenstruktur hat einen nachhaltigen Einfluss auf den Deduplikations-
Faktor«, sagt Robert Guzek, Produkt
Marketing Manager Eternus bei Fujitsu Technology Solutions. »Es gibt viele
sinnvolle Software-Umgebungen für die
Deduplikation wie beispielsweise Datenbanken, Dokumenten-ManagementSysteme oder Microsoft `Exchange´. Ein
optimales Einsatzfeld besteht bei Firmen,
die Außenstellen – möglichst ohne zusätzliche EDV-Mitarbeiter – kosteneffizient betreiben möchten.« Bei verschlüsselten Daten ist Dedup dagegen weniger
sinnvoll. Hier sei nur ein geringer Faktor
erreichbar. Auch zur Langzeitarchivierung
eigne sich Dedup nur bedingt.
Deduplizierung: Die
entscheidenden Fallstricke
Die besten Ergebnisse werden in virtualisierten Umgebungen mit vielen gleichen
Images erzielt sowie bei der Deduplikation von Backup-Daten. Gleiches gilt für
Dateien mit umfangreichen Versionsständen sowie bei E-Mails, die häufig identische Anhänge besitzen. Sobald Daten
doppelt abgelegt sind, was oft der Fall ist,
kann Deduplizierung seine Fähigkeiten
voll ausspielen.
»Die Rolle einer Deduplizierungs-Appliances darf nicht falsch eingeschätzt werden« warnt Frank Herold, Manager Presales und Consulting Central & Eastern
Europe (CEE) bei Quantum. »Sie sind
keine Archive für Jahre – logische Fehler
können passieren. Dedup verleitet viele
IT-Administratoren, das gesamte Backup
auf Disk zu legen. Ein Ausfall einer Appliance ist dann gleichbedeutend mit einem
Totalausfall einer klassischen Tape-Library,
inklusive aller Roboter, Laufwerke und
Medien. Monats-, Quartals- und Jahressicherungen sollten unbedingt auf einer
anderen Technologie gesichert werden
– hier bietet sich Tape sicherlich an.«
Bei der Planung für eine Neuinstallation
sollten IT-Manager genügend Reserven in
die Skalierbarkeit der Lösung einrechnen,
um nicht nach zwei Jahren vor dem gleichen Problem zu stehen. Oft werden Datensicherungsprobleme so lange aufgeschoben, bis es nicht mehr weitergeht
und eine neue Datensicherungslösung
schnellstmöglich her muss. Administratoren sind gut beraten, sich Zeit zu nehmen
und neben dem theoretischen KriterienK
katalog Testings mit einzuplanen.
Ausgewählte Disk-Backup-Systeme im Überblick
Hersteller
Produktname
Fujitsu Technology Solutions Eternus CS 50
de.ts.fujitsu.com/eternus_cs
Eternus CS 800
Eternus CS 500DL
Eternus CS 500
Eternus CS 1000
Eternus CS2000
Eternus CS3000
Eternus CS4000
Eternus CS5000
Gingcom
SMB
www.gingcom.de
T-Modell
TX-Modell
Hitachi Data Systems
ProtecTier
www.hds.de
Hewlett-Packard
Storage D2D2502i
www.hp.com/de/backup
Storage D2D2504i
Storage D2D4106
Storage D2D4112
Storage D2D4312
Storage D2D4324
Storage VLS9200
Storage VLS12200
EVA Gateway
IBM
TS7600 ProtecTIER
www.ibm.de
Overland Storage
www.overlandstorage.com
Quantum
www.quantum.com/Products/
Disk-BasedBackup/DXi4000/
Index.aspx
Tandberg Data
www.tandbergdata.com
REO 4600
BruttokapaMax.
Max. virtuelle
zität in Tbyte Geschwindigkeit
Librarys
2,4
1,4 TByte/h
10
160
5,9 TByte/h
64
1.568
9 TByte/h
k.A.
196
9 TByte/h
20
167,4
9 TByte/h
20
1.557
37 TByte/h
20
1.557
37 TByte/h
20
1.557
37 TByte/h
20
1.557
37 TByte/h
20
k
10
k.A.
k
10
k.A.
k
12/24
k.A.
1.000
400 MByte/s pro
16
Server
2
325 GByte/h
4
4
450 GByte/h
8
6
800 GByte/h
16
12
1,3 TByte/h
24
12
2,75 TByte/h
50
24
4 TByte/h
50
10
4.4 TByte/h/node
16
20
2,2 TByte/h/node
16
25 PByte
24
Max. virtuelle
Tape-Slots
20.000
9.000
1.500.000
300.000
300.000
500.000
500.000
1.500.000
1.500.000
k
k
k
16.000
integrierte
Deduplikation
k
K
k
in Vorbereitung
in Vorbereitung
in Vorbereitung
in Vorbereitung
in Vorbereitung
in Vorbereitung
K
K
K
K
integriertes
CDP
k
k
k
k
k
k
k
k
k
K
K
K
K
Replikation
Disk-Technik
Preis in Euro
K
K
K
K
K
K
K
K
K
optional
optional
optional
K
SAS
NL SAS, SAS
NL SAS, SAS
NL SAS, SAS
NL SAS, SAS
NL SAS, SAS
NL SAS, SAS
NL SAS, SAS
NL SAS, SAS
SAS, SATA II
SAS, SATA II
SAS, SATA II
FC, SAS, SATA II
ab 31.500
ab 10.400
ab 77.000
ab 77.000
ab 153.000
ab 395.000
ab 523.000
ab 620.000
ab 846.000
ab 19.900
ab 17.250
ab 36.750
ab 13.800
192
384
1.536
3.456
51.200
51.200
50.000
50.000
K
K
K
K
K
K
K
K
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
k.A.
K
K
K
K
K
K
k.A.
k.A.
SATA II
SATA II
SATA II
SATA II
SATA II
SATA II
SATA II
SATA II
ab 6.300
ab 9.170
ab 28.985
ab 58.300
ab 77.870
ab 114.425
ab 33.100
ab 87.235
K
K
K
SAS, FC, SATA II, FDE
ab 20.000
k
k
SATA II
ab 8.900
mittels
Replikation
mittels
Replikation
mittels
Replikation
k
k
k
k
K
SATA II
ab 10.125
K
SATA II
ab 17.415
K
SATA II, SSD
ab 41.450
k
K
K
K
k.A.
SATA II
SATA II
SATA II
ab 2.999
ab 2.045
ab 2.354
ab 3.187
2.000 MByte/s
Backup, 2.800
MByte/s Restore
450 MByte/s
16
500.000
32
512
k
k
K
DXi4510/4520
2,2
1,7 TByte/h
k
DXi4601
12
1,7 TByte/h
k
k
K
DXi6700 Family
80
5,8 TByte/h
64
9.000
K
k.A.
k.A.
k.A.
k.A.
k
K
K
K
RDX QuikStation
DPS2040
DPS2140
DPS2142
Quelle: speicherguide.de
speicherguide.de
storage-magazin.de
8
4
4
8
200 MByte/s
220 MByte/s
220 MByte/s
220 MByte/s
k.A.
k.A.
k.A.
k.A.
Eine Publikation von speicherguide.de
Oktober 2011
01277 Dresden
www.interface-systems.de
sales@interface-systems.de
22303 Hamburg
www.traffix.de
storage@traffix.de
28357 Bremen
www.basys-bremen.de
vertrieb@basys-bremen.de
30559 Hannover
www.grass-merkur.de
frank.heinrich@grass-merkur.de
51063 Köln
www.nextevolution.de
jan.dilthey@nextevolution.de
51647 Gummersbach
www.opitz-consulting.de
info@opitz-consulting.de
53111 Bonn
www.hug.de
manfred.wollweber@hug.de
55543 Bad Kreuznach
www.urano.de
info@urano.de
59457 Werl
www.ahd.de
carsten.lueckel@ahd.de
Storage Competence Partner
ist eine Kooperation des VAD TIM AG mit führenden
Storage Herstellern und Systemhäusern in Deutschland.
Diese zeichnen sich aus durch:
❙
herstellerübergreifende Lösungskompetenz
❙
hochqualifizierten Support und Professional Service
❙
methodische, technologische und kaufmännische
Storage Beratungskompetenz
61352 Bad Homburg
www.comparex.de
stefan.ehrhardt@comparex.de
63303 Dreieich
www.pandacom.de
bruecker@pandacom.de
64625 Bensheim
www.concat.de
thomas.stumpf@concat.de
70563 Stuttgart
www.condor-computer.de
vertrieb@condor-computer.de
72186 Empfingen
www.stemmer.de
thomas.ummer@stemmer.de
73479 Ellwangen
www.inneo.de
it-info@inneo.de
74172 Neckarsulm
www.bechtle.de
norbert.ponto@bechtle.de
82178 Puchheim
www.tproneth.de
info@tproneth.de
85716 Unterschleißheim
www.teracuda.de
info@teracuda.de
94315 Straubing
www.henrichsen.de
info@henrichsen.de
Kontaktieren Sie uns:
0611 2709-222 oder projektdevelopment@tim.de
TIM AG
Schoßbergstraße 21
65201 Wiesbaden
www.tim.de
www.storagecompetencepartner.de
Take IT to the
next Dimension
Speicherwelten expandieren in Raum und Zeit.
Skalierbare IT folgt ihren Vektoren. Denn unser
Konzept steht für die Evolution in einem
neuen Storage-Universum.
Scale Up.
Dynamische Erweiterung von Performance,
Verbindungen und Kapazität innerhalb eines Systems.
Scale Out. Ausbau über die Grenzen eines Systems hinaus zur
Bildung logischer Einheiten mit gemeinsamen Ressourcen.
Scale Deep. Herstellerunabhängige Virtualisierung vereint alle Datenarten.
Hitachi Virtual Storage Platform
Die einzige 3D-Scaling Platform,
die allen Datenarten gerecht wird.
looking for new dimensions:
www.my-hds.de/3d