+ All Categories
Home > Documents > Storage Basics - · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun...

Storage Basics - · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun...

Date post: 06-Mar-2018
Category:
Upload: truongnhan
View: 231 times
Download: 8 times
Share this document with a friend
113
Storage Basics Eine Einführung in die Grundlagen der Speichertechnologie
Transcript
Page 1: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Storage BasicsEine Einführung in die Grundlagen der Speichertechnologie

Stor

age

Basic

s – E

ine

Einf

ühru

ng in

die

Grun

dlag

en d

er S

peich

erte

chno

logi

e

Storage BasicsEine Einführung in die Grundlagen der Speichertechnologie

Inhalt

Kapitel 1 – Die Informationsgesellschaft: Daten und Wissen speichern auf neuem Niveau

Kapitel 2 – Tiered Storage: intelligentes Informationsmanagement im Unternehmen

Kapitel 3 – Online-Storage: von Platten und Zuverlässigkeit

Kapitel 4 – Speichernetze: die Qual der Wahl

Kapitel 5 – Backup & Restore: eine ungeliebte Pflichtübung

Kapitel 6 – Storage Management: komplexe Speichernetze beherrschbar machen

Kapitel 7 – Virtualisierung: bei Speicherthemen existiert Nachholbedarf

Kapitel 8 –Die Speicherstrategie von Fujitsu Siemens Computers und seiner Partner

Ausblick: Future Storage Trends

Glossar

Sowie Beiträge zu Speicherthemen der Partner Brocade, CA, EMC, NetApp, Sun und Symantec

Preis: 14,99 Euro

Page 2: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Storage BasicsEine Einführung in die Grundlagen der Speichertechnologie

Page 3: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Storage BasicsEine Einführung in die Grundlagen der Speichertechnologie

Page 4: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Storage BasicsJanuar 2009

Copyright© Fujitsu Siemens Computers 2009Texte, Redaktion, Herstellung: ZAZAmedia / Hartmut WiehrPrinted in Germany.

HerausgeberFujitsu Siemens Computers GmbHMies-van-der-Rohe-Strasse 880807 München, Deutschland

Kontaktwww.fujitsu-siemens.com/contact

Alle Rechte vorbehalten. Liefermöglichkeiten und technische Änderungen vorbehalten. Die in dieser Veröffentlichung wiedergegebenen Bezeichnungen können Marken sein, deren Be-nutzung durch Dritte für eigene Zwecke die Rechte der Inhaber verletzen kann.

Page 5: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

InhaltVorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

Kapitel 1: Die Informationsgesellschaft – Daten und Wissen speichern auf neuem Niveau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

Kapitel 2: Tiered Storage: intelligentes Informa tionsmanagement im Unternehmen 15

Kapitel 3: Online-Storage: von Platten und Zuverlässigkeit . . . . . . . . . . . . . . . . . . . . . . 25

Kapitel 4: Speichernetze – die Qual der Wahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Kapitel 5: Backup & Restore: eine ungeliebte Pflichtübung . . . . . . . . . . . . . . . . . . . . . . 43

Kapitel 6: Storage Management – komplexe Speichernetze beherrschbar machen . . 53

Kapitel 7: Virtualisierung – bei Speicherthemen existiert Nachholbedarf . . . . . . . . . . . 61

Kapitel 8: Die Speicherstrategie von Fujitsu Siemens Computers und seiner Partner 65

Ausblick: Future Storage Trends . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

Partner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Page 6: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Vorwort

Verehrte Leser,

die nach wie vor größte Herausforderung in Bezug auf Storage ist es, die ständig wach-sende Datenflut in den Griff zu bekommen. Diese Feststellung trifft schon lange nicht mehr auf Großkunden und ihre Rechenzentren allein zu, sondern betrifft auch den Mit-telstand und selbst kleinere Unternehmen. In den Griff zu bekommen heißt, die Daten sicher zu verwahren und zugreifbar zu machen unter Berücksichtigung von vereinbar-ten Qualitätsstandards (Service Levels) und zu vertretbaren Kosten (CAPEX und OPEX). Viele der neuen Technologien wie ILM, DeDup, SSD, Virtualisierung, Thin Provisioning – egal ob bereits etabliert oder noch Hype – wollen hier helfen.

Wir beraten unsere Kunden, aus dieser Vielfalt an etablierten und neuen Technolo-gien eine für sie geeignete Speicherlösung zu entwickeln. Wir verfügen dabei über ein umfangreiches Portfolio aus Best-in-Class-Produkten. Dabei wollen und können wir nicht alles selber machen. Unsere Technologiebeobachtung hilft uns hierbei bei der Auswahl. Wir haben mit den Storage-Technologieführern strategische Partnerschaften entwickelt, integrieren deren Produkte zu Lösungen und stellen die entsprechenden Services dafür bereit.

Sehen wir Problemfelder bei unseren Kunden, zu denen es keine geeignete Lösung am Markt gibt, dann entwickeln wir hierfür eigene Produkte und Lösungen. Beste Bei-spiele hierfür sind unsere CentricStor-Lösungen.

Daneben haben wir begonnen, Speicherlösungen nicht nur zu entwickeln und bei unseren Kunden zu implementieren, sondern sie auch selbst für unsere Kunden zu betreiben. Fujitsu Siemens Computers wird verstärkt in dieses Managed-Storage-Geschäft investieren. Unsere Managed-Storage-Kunden erhalten eine Rechnung und einen Bericht dazu pro Monat. Die Vorteile liegen auf der Hand: Transparenz bezüglich Kosten und Performance, verbesserte Effizienz und Kapitalrendite. Und uns gibt das den Vorteil, dass wir noch besser werden in der Auswahl und der Entwicklung von Produk-ten, die erlauben, Speicherlösungen kosten-optimiert und zu definierten Qualitätsstan-dards zu betreiben.

Dank dieser Strategie hat sich Fujitsu Siemens Computers zu einem der erfolgreichs-ten Anbieter von Speicherlösungen in Europa entwickelt.

Page 7: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

8 Vorwort

Wir wollen Ihnen mit diesem Buch eine Einführung in Speichertechnologien und Speichernetzwerke geben und den Mehrwert für Ihr Unternehmen aufzeigen. Wir stel-len Ihnen einige unserer Partner im Storagebereich vor, und Sie erhalten einen umfas-senden Überblick über das aktuelle Storage-Produktangebot von Fujitsu Siemens Computers. Zusammen mit den entsprechenden Services – von uns oder unseren zer-tifizierten Partnern – werden daraus Speicherlösungen, die Ihnen helfen, die wachsende Datenflut in den Griff zu bekommen!

Ihr Helmut Beck

Vice President StorageFujitsu Siemens Computers

Page 8: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Kapitel 1

Die Informationsgesellschaft – Daten und Wissen speichern auf neuem Niveau

Seit jeher gibt es keine Kultur ohne Information. Die Entwicklung der Menschheit wird im Wesentlichen von ihrer Fähigkeit bestimmt, Informationen zu erwerben, zu verteilen und an folgende Generationen weiterzugeben. Immer dann, wenn hier bahnbrechender Fortschritt erzielt wurde, wie die Erfindungen von Schrift, Buchdruck, Computer und Internet, hat sich auch die Gesellschaft stark verän-dert. Seit Konrad Zuse den Computer erfunden hat, breitet sich die automatische Informationsverarbeitung und mit ihr verbunden die elektronische Speicherung von Informationen in immer mehr Lebensbereiche aus. Doch in dem Masse, in dem es einfacher geworden ist, Informationen zu erzeugen, ist es auch leichter geworden, Informationen zu verlieren. Das Speichern, Bewahren und Verwalten von Informationen wird immer wichtiger.

Im Jahr 2008 wurde das World Wide Web 15 Jahre alt, und die Betreiberfirma der Internet-Suchmaschine Google feierte ihren zehnten Geburtstag. Beide Jubiläen ste-hen für einen neuen Abschnitt in der Geschichte der Computertechnologie: Mit Hilfe

eines einfach per Maus zu bedienenden Browsers steht jedermann unabhängig von Ort und Zeit eine unüberblickbare Menge an Informations- und Unterhaltungsquellen zur Verfügung. Ordnung in dieses Wissenschaos bringen Suchmaschinen wie die von Google. Besonders diese Gründung zweier Stanford-Studenten „krempelte innerhalb kürzester Zeit die globale Wissensökonomie um“ [1].

Der schnelle Zugriff auf Daten setzt voraus, dass diese lesbar sind und irgendwo im weltweiten Computernetz vorhanden sind. Ihre Lesbarkeit beruht auf Dateiformaten, Klassifizierungen und Index- oder Metadaten, die vor dem Zugriff der „Suchmaschine“ definiert sein müssen. Ihr Vorhandensein beruht darauf, dass sie auf irgendwelchen elektromagnetischen Speichersystemen abgelegt worden sind. Dies alles geht nur mit neuer und neuester Technologie, entwickelt in den letzten 60 bis 70 Jahren: der Infor-mationstechnologie (IT).

Page 9: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

10 Kapitel 1

Urformen der Informationstechnologie

Informationen und Wissen vorrätig zu halten, ist nun nicht gerade eine Erfindung der Moderne. Unabhängig von der gesellschaftlichen Form des Zusammenlebens der

Menschen zeigen sich im Verlauf der Geschichte bestimmte Konstanten dieses Umgangs mit Wissen und seiner Bedeutung: Schon in der Frühzeit menschlicher Gemeinschaften wurden – losgelöst von den Menschen und der mündlichen Überlieferung – von Gene-ration zu Generation Erfahrungen und Ereignisse weitergegeben. Aus ihnen sind so Wissen und Traditionen aufgehäuft worden, zunächst in mündlicher Form, dann mit dem Aufkommen von systematischen Schriftzeichen wie den Piktogrammen der Sume-rer und den Hieroglyphen der Ägypter – beides zunächst Bild- oder Symbolsprachen. Unser heute noch gebräuchliches Alphabet in den europäischen Sprachen entstand erst etwa vor 3.300 Jahren bei den Sumerern und später bei den Ägyptern, also gemessen an der Geschichte des menschlichen Lebens und der Ausdifferenzierung des homo sapiens im östlichen Afrika vor etwa 4 Millionen Jahren erst vor relativ kurzer Zeit [2].

Um diese nun teilweise schriftlich festgehaltenen Informationen herum organisier-ten sich das alltägliche Leben der Menschen, ihre Feste, ihre staatlichen Gebilde und nicht zuletzt ihre Religion. So entstanden unterschiedlichste Kulturen auf dem einen Globus, lange bevor Europäer die Welt „entdeckten“ – und damit abendländischen Stan-dards unterwarfen.

Das Magazin „Der Spiegel“ hat sich im August 2008 mit den Auswirkungen der Datenflut auf die Menschen beschäftigt und dabei auch kurz die Ur-Geschichte der Informationstechnologie rekapituliert. Die ersten Etappen waren:

„Die Strichzeichen der Sumerer machen Sprache zur Konserve: In Ton geritzt, löst sie sich vom Sprecher, wird unabhängig von Zeit und Raum. Um 1.300 vor Christus werden in China beschriftete Holzstreifen mit Bambus gebunden: das erste Buch. Nun ist auch umfangreiche Information transportfähig. Die Phönizier entwickeln die erste Einzel-laut-Schrift. Rund 300 Jahre später übertragen die Griechen das Prinzip und schaffen das Ur-Alphabet.“ [3]

Der „Wissensvorsprung durch Technik“ setzte sich erst etwa 3.000 Jahre später mit Johannes Gutenberg fort, der um 1450 die Kupfermatrize zur massenhaften Herstel-lung maßgerechter Einzelbuchstaben erfindet. Nach 1600 kommt es dann in Straßburg und in Wolfenbüttel zu den ersten Wochenzeitungen mit aktuellen Nachrichten, und im Jahr 1659 erscheint in Leipzig die erste Tageszeitung. Danach geht es Schlag auf Schlag: Mitte des 19. Jahrhunderts Erfindung des Ferntelegraphen, später des Telefons, der Schreibmaschine, der Schallplatte, der elektromagnetischen Wellen durch Hertz und des Radios, Films und Fernsehens. Bis die Entwicklung dann vorläufig in der ersten Rechenmaschine von Konrad Zuse im Jahr 1938 gipfelte. Der Rest ist bekannt: Internet, World Wide Web oder Mobiltelefonie.

Page 10: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Die Informationsgesellschaft – Daten und Wissen speichern auf neuem Niveau 11

Die Digitalisierung des Wissens

Die Mittel oder Technologien, mit denen Menschen ihre Erfahrungen und ihr Wissen – der Ausdruck „Wissen“ wird hier wertfrei gebraucht, das heißt ohne eine Bewer-

tung des jeweiligen Inhalts – für kurze Zeit oder für immer festhalten wollten, haben sich dabei im Laufe der Geschichte gewandelt, nicht aber die Zwecke, warum Menschen oder gesellschaftliche Gruppen dies tun.

Spätestens mit der Verbreitung des Computers und des World Wide Web wird eine Verschiebung des gesellschaftlichen Charakters weg von der Industriegesellschaft und hin zur Informationsgesellschaft diagnostiziert. Die Produktion von Waren im klassischen Sinne tritt demnach in den Hintergrund und es werden immer mehr Dienstleistungen und Informationen mit Warencharakter hergestellt – die Verbreitung von Informationen sowie darauf aufbauend von Unterhaltung wird zu einem eigenen, profitablen Geschäftszweig und verändert fortlaufend das Zusammenleben der Menschen in der Gesellschaft [4].

Es werden immer mehr Informationen digital erfasst, gespeichert und über Netze zur Verfügung gestellt. Dieses Wachstum beruht zum einen auf den in Unternehmen anfal-lenden Daten. Die Buchhaltung stand schon immer im Zentrum der Bemühungen um Automatisierung. Einige der ältesten Tontafeln aus dem Zweistromland enthalten buch-halterische Aufzeichnungen. Auch die ersten Computer wurden mit Vorliebe für Buch-haltungsdaten genutzt. Doch heute breitet sich die IT in Unternehmen immer weiter aus – ohne ihre Unterstützung geht fast nichts mehr. Immer neue Funktionsbereiche werden digitalisiert, und mit jeder Geschäftsausdehnung fallen digitale Daten an. Je nach Geschäftsmodell gibt es heute sogar Firmen, die fast ausschließlich im Internet existieren beziehungsweise komplett von ihm abhängen.

In klassischen Firmen begann der Weg in die digitale Welt bei den Lösungen für ERP (Enterprise Resource Planning) und führte über CRM (Customer Relationship Manage-ment), SCM (Supply Change Management), Data Warehousing und Business Intelli-gence zu neuen Ufern im Bereich Web 2.0 und social media. Es handelt sich hierbei oft um produktionstechnische und kaufmännische Daten, die hauptsächlich in Program-men von SAP, Oracle oder Microsoft erfasst und bearbeitet werden.

Diese strukturierten Daten, die systematisch wie in Feldern einer Datenbank abgelegt werden, können über Abfragen leicht wieder zugänglich gemacht werden. Angesichts ihrer Menge und ihres steten Wachstums wird ihre Auswertung und Interpretation sehr komplex, weshalb es eigene „Daten-Warenhäuser“ (Data Warehousing) gibt, in denen die gesammelten Daten nach Geschäftskriterien (Business Intelligence) sortiert und aufbereitet werden. Zum Beispiel wollen die Fluggesellschaften für ihr Marketing und ihre Angebotspolitik wissen, wie oft und wohin ihre Kunden fliegen und ob sie teure Business oder billigere Economy Class nutzen. Die Datenbanken alleine liefern ihnen diese Interpretation nicht.

Page 11: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

12 Kapitel 1

Informationswandel in den Unternehmen

Die Enterprise Strategy Group (ESG) unterscheidet drei Phasen: In Phase eins wurden Kernprozesse mit datenbank-basierten Applikationen automatisiert, zum Beispiel

SAP R/3. Die Informationen waren strukturiert und transaktionsorientiert. Deswegen fielen hier so genannte Transaktionsdaten an.

In Phase zwei änderte sich die IT-Struktur der Unternehmen. Der PC wurde erfunden und er hielt dezentral in die Unternehmen Einzug. Wenig später wurden PCs zu Arbeits-gruppen zusammengeschlossen, die über erste Server Daten austauschten. Das war die Geburtsstunde von Novell und auch der Startschuss, Windows als Server-Betriebssys-tem zu entwickeln. Plötzlich entstanden Unmengen von unstrukturierten Office-Dateien. Das Zeitalter von verteilten Dateien hatte begonnen, die hierfür benötigte Speicherkapazität war bald grösser als die für Transaktionsdaten.

Heute stehen wir am Beginn der dritten Phase, des Zeitalters der Internet-Daten. Web-2.0-Applikationen wie Soziale Netzwerke, Wikis oder Blogs kommen auch in Unternehmen zum Einsatz. Da jeder Mensch nun nicht mehr nur Informatinskonsu-ment, sondern auch Informationsautor werden kann, vervielfacht sich die Menge der zu speichernden Daten. Der digitale Fußabdruck (digital footprint) im Netz ist bereits jetzt enorm, ein Ende des Wachstums ist nicht abzusehen. So wird erwartet, dass Internet-Daten bald alle bisherigen Datenformen weit hinter sich lassen werden.

Das Wachstum unstrukturierter Daten (Web 2.0)

Ein Großteil der heute anfallenden Daten ist also unstrukturiert. Sie stammen aus Office- oder E-Mail-Programmen. In den unstrukturierten Daten verbergen sich

relevante und unrelevante, bunt gemischt und nicht leicht zu unterscheiden. Hier liegt die Herausforderung: Gerade unstrukturierte Daten müssen richtig verwaltet werden, damit die wichtigen von ihnen den Anforderungen an Unversehrtheit und langfristige Aufbewahrung genügen, und die unwichtigen möglichst geringe Ressourcen beanspru-chen. Mit dem Begriff Compliance werden organisatorische und staatliche Anforderun-gen an die Datenhaltung umschrieben, die sich auch in der Menge der zu speichernden Daten niederschlagen.

Der Berg an digitalen Daten wächst auch dadurch, dass gerade im Consumerbereich bisherige analoge Speichermedien abgelöst worden sind: Sprache, Musik, Fotos, Fernse-hen und Film werden digital aufgezeichnet und gespeichert, wobei zum Teil riesige Datenmengen anfallen, auch durch die nachträgliche Konvertierung analog gesammel-ter Medien. Durch die Verbesserung von Streaming-Techniken im Internet und weitere

Page 12: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Die Informationsgesellschaft – Daten und Wissen speichern auf neuem Niveau 13

Verbesserung der Bandbreiten werden vermutlich bisherige Medien wie CD-ROMs oder DVDs für Musik und Film durch das Internet ersetzt werden, womit eine weitere Nach-frage nach Festplatten und Arrays ausgelöst werden wird.

Das so genannte Web 2.0 mit den neuen Möglichkeiten für Interaktion zwischen den Teilnehmern eines Netzwerks – zum Beispiel YouTube, MyFace, LinkedIn oder Xing – führt ebenfalls dazu, dass bei den zuständigen Providern riesige Datenmengen gespei-chert werden. Ein Großteil der Lieferungen an Blade-Servern und Storage-Arrays geht

Wie groß ist ein Exabyte?Kilobyte (KB) 1.000 Bytes oder 103 Bytes. 2 Kilobytes: eine Schreibmaschinenseite.

100 KB: eine Photographie mit niedriger Auflösung.

Megabyte (MB)

1.000.000 Bytes oder 106 Bytes. 1 Megabyte: Ein kleiner Roman oder eine Floppy Disk (3,5 Zoll). 2 bis 10 MB: eine digitale Aufnahme mit hoher Auflösung. 3 bis 4 MB: ein Song, komprimiert mit MP3. 5 MB: die kompletten Werke von Shakespeare. 10 MB: eine Minute Tonaufnahme in hoher Qualität. 10 bis 20 MB: eine digitale Röntgenaufnahme. 100 MB: ein Meter Buchregal oder 2 Stunden komprimierter Radiosendung. 650 MB: eine CD-Rom.

Gigabyte (GB)

1.000.000.000 Bytes oder 109 Bytes. 1 Gigabyte: ein Pickup voller Bücher. 3,2 GB: eine Stunde hochauflösendes Fernsehen (HDTV). 5 GB: durchschnittliche Filmgröße auf einer DVD. 20 GB: eine gute Sammlung der Werke von Beethoven. 50 GB: Kapazität einer Blu ray disc. 100 GB: ein Büchereigang voll mit wissenschaftlichen Magazinen oder etwa 1.200 Stunden Musik mit MP3. 500 GB: unkomprimierte Kapazität der größten verfügbaren Tape Cartridge 2005.

Terabyte (TB)

1.000.000.000.000 Bytes oder 1012 Bytes. 1 Terabyte: 50.000 Seiten bedrucktes Papier. 2 TB: eine wissenschaftliche Bibliothek. 10 TB: die gedruckten Sammlungen der Library of Congress (USA) oder die voraus-sichtliche Kapazität einer magnetischen Tape Cartridge im Jahr 2015. 600 TB: die Datensammlung des amerikanischen National Climactic Data Center (NOAA).

Petabyte (PB)

1.000.000.000.000.000 Bytes oder 1015 Bytes. 1 Petabyte: 3 Jahre an EOS-Daten (EOS = Earth Observing System). 2 PB: alle amerikanischen wissenschaftlichen Bibliotheken zusammen. 20 PB: Kapazität aller 1995 hergestellten Festplatten. 200 PB: alles gedruckte Material weltweit.

Exabyte (EB)

1.000.000.000.000.000.000. Bytes oder 1018 Bytes. 2 Exabytes: das absolute Volumen aller 1999 erzeugten Informationen. 5 EB: alle Worte, die jemals von Menschen gesprochen wurden. 9,25 EB: Kapazi-tät, um alle in einem Jahr geführten Telefongespräche in den USA auf-zuzeichnen. 90 EB: geschätzte verfügbare Kapazität aller digitalen Medien im Jahr 2010.

Quellen: Horison Information Strategies, UC Berkeley Study „How Much Information”, IDC

Page 13: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

14 Kapitel 1

bereits heute an diese Unternehmen. In dem Maße, wie sich neue Technologien wie Miet-Software (Software as a Service / SaaS) oder Cloud Computing ausbreiten, bei dem die Anwender auf Programme und Daten zugreifen, die nur noch in riesigen Rechenzentren „irgendwo in der Internet-Wolke“ abgespeichert werden, wird sich diese Entwicklung noch verstärken. Für mittelständische Unternehmen und Existenzgründer (Start-ups) eröffnen sich hier kostengünstige Möglichkeiten, an einer ausgereiften In frastruktur teilzunehmen. So bietet Amazon in seinen großen Rechenzentren für externe Kunden an, Rechen- und Speicherkapazität zu mieten. Natürlich müssen ent-sprechende Bandbreiten in den Netzen und eine Zuverlässigkeit des Anbieters gegeben sein. Es zeichnet sich ab, dass sich neue Technologien, die zunächst im Consumer-Umfeld eingesetzt wurden, auch in die Welt der Business-IT ausdehnen. Eine Risikoab-schätzung im Einzelfall, die auch Securityfragen und Kosteneinsparungen umfasst, bleibt natürlich obligatorisch.

Faktisch gesehen sind die Möglichkeiten der „Informationsgesellschaft“ noch lange nicht erschöpft. Es sind neue Wege der Wissensvermittlung und der Speicherung von Informationen zu den bestehenden hinzugekommen [5]. Die Informationstechnologie hat ein sehr großes Potential – aber sie ist wie andere große technische Erneuerungen vor ihr letztlich nur ein Mittel, ein Werkzeug für bestimmte Zwecke. Es kommt darauf an, was man mit ihr für welche Ziele unternimmt. Und es kommt zunächst einmal dar-auf an, die Datensicherung selbst zuverlässiger zu machen. Am Beispiel Storage zeigen sich zugleich die Chancen und die Beschränkungen von Technologie. Auch deshalb gibt es gerade in diesem Bereich eine nicht abreißende Kette von neuen prinzipiellen Erfin-dungen und schrittweisen Verbesserungen.

In dieser Welt kommt Storage eine wachsende Bedeutung zu:

1) Die schnell wachsenden Datenberge müssen zunächst einmal überhaupt gespeichert werden, idealerweise unter Optimierung der Ressourcen.

2) Da Daten immer und überall verfügbar sein müssen, müssen die zugrundeliegenden Storage-Systeme die Daten rund um die Uhr und über das Internet weltweit anbie-ten. Darüber hinaus müssen Daten redundant (mehrfach) gespeichert werden, um sie auch im Falle von unvorhergesehenen Ereignissen nicht zu verlieren.

3) Immer mehr Daten mit immer weniger Struktur beherrschen den Alltag von Daten-speicherung: Das Verwalten von Daten muss intelligenter werden, damit Daten gemäß ihres Wertes angemessen aufbewahrt werden (Information Lifecycle Manage-ment). Nur so kann man auch Compliance-Anforderungen gerecht werden.

Page 14: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Kapitel 2

Tiered Storage: intelligentes Informa-tionsmanagement im Unternehmen

Unternehmen haben sich mit unterschiedlicher Aufmerksamkeit dem Speichern von Daten gewidmet. Wenn mal etwas schief geht, Daten „verschwinden“, gestohlen werden oder bei Schäden an der Hardware und den Medien nicht zurückgesichert werden können, wird schnell der Mantel des Schweigens darü-ber gelegt. Nur selten dringt so etwas an die Öffentlichkeit, da man den Ruf oder die Marke des Unternehmens schützen will. Dabei praktizieren eigentlich fast alle IT-Abteilungen, auch wenn das nicht bewusst und nach bestimmten Regelwer-ken geschieht, schon immer so etwas wie eine Speicherstrategie: Sie verschieben ihre Daten von A nach B oder C, weil sie Kosten sparen wollen oder sie erst mal nicht wieder brauchen. Damit ist aber auch in den meisten Unternehmen eine Grundlage dafür vorhanden, eine bewusste und klare Strategie für das Speichern ihrer digitalen Schätze aufzusetzen und zu praktizieren.

Fast alle Prognosen und Schätzungen über das rasante Daten- und Storagewachs-tum haben sich bislang – im Unterschied zu vielen anderen der Analysten und Marktbeobachter – als wahr herausgestellt. Oft stellen sie sich sogar als zu vor-

sichtig formuliert heraus. Insbesondere in den letzten Jahren zeigte sich, dass neben die Unternehmens-IT mit ihren Speicheransprüchen immer weitere gesellschaftliche Berei-che treten, in denen analoge Informationen digitalisiert werden. Dazu gehören Film und Video, Sprach- und Musikaufnahmen, Röntgenaufnahmen in der Medizin (Medical Imaging), TV-Kameras in großen Städten oder an sicherheitskritischen Orten (Security & Surveillance) einschliesslich der Umstellung von analogem auf digitalen Funk bei Poli-zei, Feuerwehr und Rettungsdiensten. Ein weiterer Faktor sind die so genannten sozia-len Netzwerke (Social Communities) wie YouTube oder Facebook mit ihren riesigen Datenbeständen von Fotos und Videos. Diese Informationen bilden zum großen Teil das, was man unstrukturierte Daten nennt, im Gegensatz zu den strukturierten, die in Daten-banksystemen mit ihren festen Vorgaben erfasst werden.

Es werden also überall, zum Teil in täglich erweiterten Rechenzentren, digitale Infor-mationen im Überfluss gespeichert. Doch sind es alle diese Daten auch wirklich wert?

Page 15: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

16 Kapitel 2

Müssen die vielen Schnappschüsse von Geburtstagen, Familien- und sonstigen Festen oder Strandurlauben, die früher zu den berühmten, allseits gefürchteten Dia-Abenden führten, wirklich mit dem neuesten Stand der Technologie sicher und lange abgespei-chert werden? Müssen die Unternehmen, selbst unter Berücksichtigung rechtlicher Vor-gaben, alles elektronisch speichern?

Laut IDC hat das Wachstum aller unstrukturierten Daten (file-basiert), die sich zunehmend außerhalb der Unternehmen ansammeln, im Jahr 2008 zum ersten Mal das der strukturierten Daten (block-basiert) übertroffen. In den Unternehmen selbst ver-schiebt sich ebenfalls das Gewicht zwischen den strukturierten Daten, die in Datenban-ken oder ERP-Anwendungen erfasst werden, und den erwähnten unstrukturierten Daten, die sich vor allem aus E-Mails samt Anhängen, Office-Dateien, Präsentationen, Videos usw. zusammensetzen. Während die Frage des Wiederfindens dank Datenban-ken-Abfragen und der Interpretation der Daten mit Data Warehousing oder Business Intelligence heute für strukturierte, aber noch nicht für unstrukturierte Daten gelöst ist [1], lässt sich das keinesfalls von der Ablage der Datenmengen selbst sagen: Der Spei-cherplatz im Primärbereich, also bei dem schnellen Zugriff auf teuren Festplatten, ist begrenzt und wird nur wirklich geschäftskritischen Applikationen zugewiesen.

Quelle: IDC 2007

Weltweiter Anteil an block- und file-basierten Speichersystemen 2005–2008

900080007000600050004000300020001000

0

Peta

byte

s

2005 200820072006

block-basiertfile-basiert

Im Jahr 2008 werden die file-basierten Daten laut der Prognose von IDC zum ersten Mal stärker als die block-basierten Daten wachsen.

Page 16: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Tiered Storage: intelligentes Informationsmanagement im Unternehmen 17

Daten verschieben

Die zunächst in Server- beziehungsweise Applikationsnähe abgelegten Datensätze und Dateien auf weniger performante Speicherplätze auszulagern, ist aus mehre-

ren Gründen nötig:• Gerade bei businesskritischen Informationen wie Buchungs- oder Einkauf- und Ver-

kaufsdaten entstehen täglich und stündlich immer neue aktuelle Daten, die im direk-ten Zugriff bleiben müssen, während andere nach einer bestimmten Zeit „unwichti-ger“ oder unaktueller werden. Sie müssen deshalb schon aus Platzgründen weiter verschoben werden, vom primären Speicherplatz (Online oder Primary Online Sto-rage) auf langsamere und preisgünstigere Plattensysteme (Nearline oder Secondary Storage).

• Andere Dateien wie Präsentationen sind nicht unbedingt geschäftskritisch, müssen aber schon deshalb irgendwo in der Nähe (Nearline) geparkt werden, weil sie öfters geändert und weiterverwendet werden etc. Sie sind darüber hinaus ein typischer Fall von Daten, die doppelt oder mehrfach abgespeichert werden, weil sie von zahlrei-chen Mitarbeitern benutzt werden. Die Analysten von Enterprise Strategy Group (ESG) haben hierfür das „Eisberg-Modell“ entwickelt. Demnach müssen zwei Haupt-gruppen von Daten unterschieden werden: dynamische Daten, die noch fortlaufend verändert werden (= sichtbarer Teil des Datenbergs), und dauerhafte Daten, die fix oder statisch sind und sich nicht mehr verändern (= unsichtbarer Teil des Daten-bergs) [2].

• Gesetzliche Bestimmungen oder einfach kaufmännische Vorsicht erfordern eine langfristige Datenablage, ohne dass deren Inhalte im Tagesgeschäft zur Verfügung stehen müssen. Sie wandern mithin ins Archiv, wie dieses auch immer organisiert ist, früher vor allem auf Magnetbändern und heute oft auch auf so genannten Virtual Tape Libraries, die auf Plattensystemen eine Bandspeicherung simulieren. Dies geschieht auf einer dritten Speicherstufe, von der die Daten später noch weiter weg vom Ausgangspunkt, den Servern und primären Plattenspeichern, auf Band abgelegt werden.

• Last but not least: Um sich vor Datenverlust zu schützen, müssen je nach Datenwer-tigkeit sofortige oder zeitlich verzögerte Kopien angelegt werden, die im Bedarfsfall wieder zurückgespielt werden können (Backup, Restore, Snapshot, CDP / Continuous Data Protection). Bei diesen Verfahren setzen auch aktuelle Deduplizierungskonzepte an, die die oben genannten Doubletten während der Backup-Prozesse wieder her-ausfischen sollen – allerdings nur auf den Backup-Medien und nicht auf den primä-ren oder sekundären Plattenspeichern. Näheres zu dieser komplexen Thematik in Kapitel 5.

Page 17: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

18 Kapitel 2

Auch wenn in einem Unternehmen nur ein Teil dieser Verfahren angewandt wird, praktizieren sie zumindest unbewusst ein abgestuftes Datensicherungssystem – denn weitergeschoben werden Daten immer, und sei es nur vom Server auf ein Backupme-dium, so unzulässig dies vom Standpunkt einer professionellen Speichertechnik auch sein mag.

HSM und ILM: klassische Konzepte mit Langzeitwirkung

Dass ein abgestuftes Speicherverfahren eigentlich immer irgendwie betrieben wurde in der Unternehmens-IT, belegen im übrigen zwei klassische Konzepte. Beiden ging

es um eine prinzipielle Klärung: Was muss wie und wie lange wo beziehungsweise auf welchem Medium gespeichert werden? In der Welt der Mainframes wurde deshalb zu der Methodik des hierarchischen Storage Management (Hierarchical Storage Manage-ment / HSM) gegriffen, bei der nach der Beschreibung von Fred Moore die automatische Speicherung der Daten auf den kostengünstigsten Speichergeräten vorgenommen wird, entsprechend der erforderlichen Performance für die jeweiligen Applikationen [3]. Die-ser Prozess ist für die Anwender nicht sichtbar, sie können unvermindert auf alle Daten zugreifen, egal auf welcher Stufe der Speicherhierarchie sich diese befinden. Eine spezi-elle HSM-Software kümmert sich um die verschiedenen Speicherstufen. IBM führte die-ses Verfahren zuerst 1975 auf Mainframes ein.

StorageTek und andere Anbieter legten nach dem Platzen der Internet-Blase im Jahr 2001 Wert auf die Strategie von Information Lifecycle Management (ILM), um die Anwender mehr auf die inhaltliche Betrachtung ihrer gespeicherten Daten zu verwei-sen. Als Hardware-Hersteller hatte man dazu eine Palette von unterschiedlichen Gerä-ten anzubieten, außerdem kooperierte man mit Anbietern, die sich mehr um die Klassi-fizierung der Daten per Software kümmerten. EMC kaufte sich mit Documentum gleich einen eigenen Hersteller einer Dokumentenmanagement-Lösung (DMS) ein, um daraus Pakete (Bundles) für die alten und neuen Kunden zu schnüren. ILM kann als Fortsetzung von HSM für die Unix- und Windows-Welt begriffen werden. Mit ILM werden die Daten von ihrer Entstehung bis zu ihrer Archivierung oder ihrem Löschen verwaltet und ent-sprechend ihrer Wertigkeit auf unterschiedlich schnellen und leistungsfähigen Daten-trägern abgelegt. Diese Art von Speichermanagement ist auf HSM-Technologie aufge-baut und benutzt von den Unternehmen aufgestellte Regelwerke (Policies), um eine optimale Übereinstimmung zwischen Datenwertigkeit und den jeweiligen Speicher-Subsystemen zu bestimmen. Auch wenn sich die Unternehmen oft nicht dessen bewusst sind, praktizieren sie alle irgendeine Form von ILM. Selbst wer seine Daten ein Jahr lang oder sogar länger auf hochperformantem und teurem Online-Storage vorrätig hält, hat eine Aussage über den angenommenen Wert seiner Daten getroffen – ob diese Ent-

Page 18: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Tiered Storage: intelligentes Informationsmanagement im Unternehmen 19

scheidung allerdings rational gut begründet war, steht auf einem ganz anderen Blatt, da man sie vermutlich schon längst auf preisgünstigere Datenträger hätte auslagern können.

Ein verwandter Ansatz ist Tiered Storage, der das Gleiche meint wie HSM und ILM, aber mehr die Kombination von IT-Infrastruktur (Hardware-Basis) und Dateninhalten berücksichtigt: Auf verschiedenen Stufen eines Kontinuums von Servern über schnelle Primärspeicher (Online Storage für Daten im sofortigen geschäftlichen Zugriff) und nicht so schnelle Speicher (Nearline Storage für Daten im eventuellen Zugriff) bis zu Backup-Mechanismen und Archivierung wandern die gespeicherten Daten immer mehr in Richtung Nicht-Zugriff. Eine solche Struktur, die von der Datenwertigkeit ausgeht, findet sich eigentlich in allen Unternehmen, egal wie sie diese bezeichnen.

HSM und ILM lassen sich als übergeordnete, zum Teil auch „gefühlte“ Strategie begreifen, die Stufen und Kriterien der Datensicherung in eine begründete Reihenfolge zu bringen. Viele Hersteller, die HSM oder ILM propagiert haben, versprachen ihren Kun-den vor allem eine Verringerung ihrer Speicherkosten. Dies bezieht sich auf die klassi-schen Speicherprozesse Datensicherung, Backup, Restore und Disaster Recovery, die so kategorisiert werden müssen, dass sie gemäss ihrem Wert für das Unternehmen auf dem jeweils leistungsfähigsten und preiswertesten Speichermedium abgelegt sind. Das

Quelle: SNIA

Was ist Tiered Storage?Verschiedene Stufen der Datensicherung aufzubauen bedeutet die Errichtung einer Hierarchie von Speichersystemen, die auf Anforderungen der Applikationen (Perfor-mance, Business Continuity, Sicherheit, Aufbewahrungszeit, Compliance etc.) und Kosten beruhen.

Konzepte für Speicherstufen erfordern einige Mechanismen, um Daten zu platzieren:� Statisch – Applikationen werden

bestimmten Stufen/Speichersystemen zugeordnet

� Nacheinander – Weiterverschieben nach bestimmten Voreinstellungen (z. B. ins Archiv)

� Dynamisch: erfordert aktive Data Mover (z. B. HSM- oder ILM-basierte Policies)

Auf verschiedenen Stufen eines Kontinuums von Servern über schnelle Primärspeicher und nicht so schnelle Speicher bis zu Backup-Mechanismen und Archivierung wandern die gespeicherten Daten immer mehr in Richtung Nicht-Zugriff.

Page 19: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

20 Kapitel 2

hört sich leichter gesagt an als getan: Denn wie kann bestimmt werden, welche Daten wie lange auf welcher Stufe beziehungsweise auf welchem Medium abgelegt werden sollten? [4]

Traditionell war die Datenhierarchie zweigeteilt: hier die Daten, die auf Festplatten in direktem, schnellen Zugriff gespeichert wurden, dort die Backup- und Archivdaten auf billigem Tape, nicht in direktem Zugriff und teilweise irgendwo eingebunkert. Wer sich für HSM oder ILM als Strategie entscheidet, will mit diesem Grob-Konzept von einst brechen und Daten entlang ihres jeweiligen Nutzes – ihrer Bedeutung für den unmittel-baren Geschäftsprozess – ablegen. Wer dies entlang bestimmter Kriterien und geplant unternimmt, wird auf diese Weise sofort Kosten sparen können [5].

HSM und ILM haben auf jeden Fall, auch wenn diese Ansätze umstritten sind [6], eine Wirkung hinterlassen: Tiered Storage gehört heute zu einer Selbstverständlichkeit in den Unternehmen. Denn eine veritable Hierarchie beherrscht nun fast allerorten die Speicherlandschaft – aus zwei Stufen (Tiers) sind vier bis fünf geworden, und im Ideal-fall sollen sie genau die Wertigkeit der Daten auf jeder Stufe zu angemessenen Kosten darstellen. Also von teurem Primärspeicher (Fibre Channel- und SAS-Platten), über nicht ganz so teuren Sekundärspeicher (Disk-to-Disk (D2D) auf SATA-Platten), der im nicht so

Roadmap für die ILM-Einführung

ILM-Aktivitäten im ganzen Unternehmen einrichten

ILM-basierte Policies und Services automatisieren

Pilotphase für ILM-basierte Lösungsansätze beginnen

Standards einführen für Informationen, Daten und Security

Informationen und Infrastruktur für ILM festlegen

� ILM-Services einstellen und verwalten

� Automatisieren mit Management-Tools für ILM

� Zwischenbilanz der Vorteile erstellen

� Mit Policy-basierten Services beginnen� ILM-Aktivitäten präzisieren

� Policy-Angaben über alle Stufen verteilen� Service Levels für Speicherstufen und

Datensicherung festlegen� Management-Tools für die

Konfiguration einführen

� Anforderungen mit den Fachabteilungen festlegen� Für jede Abteilung den Wert, die Lebensdauer

und die Klassifizierung der Informationen festlegen� Tools für Storage Resource

Management (SRM) zur Überprüfung der Infrastruktur benützen

Quelle: SNIA

Das Data Management Forum der SNIA empfiehlt, auf verschiedenen ILM-Ebenen intelligente Sys-teme und Tools einzuführen, um die ILM-Einführung zu optimieren. Weitere Informationen unter www.snia.org/dmf.

Page 20: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Tiered Storage: intelligentes Informationsmanagement im Unternehmen 21

schnellen Server- oder Applikationszugriff bleiben soll, hin zu mehreren Formen von Backup: entweder als Backup-Speicher auf billigen SATA-Platten, die die Funktion von früherem Tape-Backup erfüllen (Virtual Tape Libraries / VTL), oder als klassisches Backup und Archiv auf Magnetbändern.

Tiered Storage und Datenklassen

Die klassische Aufteilung kannte nur zwei Speicherebenen: In einem ersten Schritt wurden die Daten auf servernahen Festplatten (Direct Attached Storage bzw. DAS)

abgelegt, eine Zeit lang dort für den schnellen Datenzugriff vorrätig gehalten und dann in einem zweiten Schritt auf eine Tape Library weiter verschoben. Mussten sie auch dort für einen Datenzugriff bereit stehen, kamen im Enterprise-Bereich nur mächtige Tape Libraries von StorageTek oder IBM mit ihrer performanten Motorik für das schnelle Be- und Entladen der Bandlager (Cartridges) zum Einsatz.

Daneben wurden auch Backup- und Archivdaten auf Bänder abgelegt und – der Theorie nach – an einen sicheren Ort verbracht, oft außerhalb des Firmenstandortes. Wurden die Daten im Recoveryfall wieder gebraucht, mussten sie zurücktransportiert und in einem stunden- oder tagelangen Prozess wieder in die produktiven Systeme eingespielt werden.

Mit der Weiterentwicklung der Platten- und Arraytechnologie geht man heute von einem mehrstufigen Tiered-Storage-Modell aus, das mindestens drei oder vier Klassen umfasst:Tier 0: Hier kommen schnelle Datenspeicher (Flash Memory oder (Enterprise Class)

Solid State Disk) zum Einsatz, um Informationen in einem sehr schnellen Zugriff zu halten. Solid State Disk (SSD) werden zum Beispiel von Spezialanbietern wie Texas Memory Systems schon seit Jahren als sehr teurer Cache-Speicher angeboten. Bevorzugte Kunden sind staatliche Organisationen in den USA, Banken oder Firmen, die in der Erdöl-Exploration aktiv sind, wo sehr große Datenmengen anfallen, die selbst auf Online Storage schon zu weit weg von den Applikationen wären.

Tier 1: Mission critical data, umsatzkritische Daten, umfassen etwa 15 Prozent der Daten. Sehr schnelle Antwortzeit, abgelegt auf FC- oder SAS-Disk, in der Regel in einem FC-SAN mit Datenspiegelung und lokaler oder entfernter Replikation. Ange-strebte Verfügbarkeit von 99,999 Prozent. Sofortige Wiederherstellbarkeit erforder-lich. Aufbewahrungszeit: Stunden.

Tier 2: Vital Data, etwa 20 Prozent der Daten, weniger umsatzkritische Daten als bei Tier 1. Ebenfalls schnelle Antwortzeit erforderlich, FC- oder SAS-Disk. Neben FC-SAN auch IP-SAN (iSCSI) mit 99,99 Prozent Verfügbarkeit. Tolerierbare Ausfallzeiten im Sekundenbereich. Aufbewahrungszeit: Tage.

Page 21: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

22 Kapitel 2

Tier 3: Sensitive Data, machen etwa 25 Prozent der Daten aus und erfordern eher moderate Antwortzeiten. Hier kommen meist SATA-Disk und IP-SANs (iSCSI) zum Einsatz. Einsatzfeld von Virtual Tape Libraries (VTL) und Disk-to-Disk-to-Tape mit periodischen Backups. 99,9 Prozent Verfügbarkeit, mögliche Ausfallzeiten im Minu-tenbereich. Aufbewahrungszeit: Jahre.

Tier 4: Non-critical Data, etwa 40 Prozent der Daten. Gespeichert meist auf Tape, angeschlossen an FC-SAN oder IP-SAN (iSCSI). 99,0 Prozent Verfügbarkeit. Ausfall-zeiten können Stunden oder sogar Tage umfassen, da die Daten sich nicht mehr im produktiven Zugriff befinden. Aufbewahrungszeit: Unbegrenzt.

Tiered Storage und die Lebenszeit von Daten

Tier 1 Tier 2 Tier 3Datentyp Berechnung Applikation Referenz, ArchivApplikationen Geschäftskritisch, OLTP Vital, sensitive ReferenzVerfügbarkeit 99,999 % 99,99 % 90,0 bis 99,9 %in % I/O, Durchsatz Sehr hoch Hoch Moderat, niedrigEingeplante Keine < 5 Stunden/Jahr = > 10 Stunden/Jahr RuhezeitRecovery- Festplatte Festplatte, VTL, Tape Library TapeTechnologie

Durchschnittliche Tage seitder Entstehung 0 Tage 30+ Tage 90+ Tage ein Jahr für immerRecovery TimeObjective (RTO) Millisekunden Sekunden Minuten Stundeb TageSchlüsselkomponenten Data mover (remastering)(ILM) Policy engine Hierarchie von Tiered Storage

Quelle: Horison Information Strategies

Prob

abili

ty o

f reu

se (%

)

Amou

nt o

f dat

a

100

0∞

VTLs

SATA/JBODMAID

Primärspeicher� Enterprise-Festplatte� Mirroring und

Replikation, CDP� Synchrone und

asynchrone entfernte Spiegelung

Secondary storage� SATA-Festplatte und

Virtual Tape (VTL)� Unveränderlicher Inhalt,

Backup/Recovery, Referenzdaten

� Point-in-time, Snapshot, Deduplication

Langzeitaufbewahrung� Unveränderlicher Inhalt� Video, Medizin, Regierung,

Compliance� Tape Library, Archivierung� Aufbewahrung an einem

anderen Ort

Probability of reuse

Value of data

Amount of data

Es ist zunehmend wichtig zu verstehen, dass sich der Wert von Daten während ihrer Lebenszeit verändert. Deshalb verändern sich auch ihre Aufbewahrungsorte und die Methoden, sie während dieser Zeit zu verwalten.

Page 22: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Tiered Storage: intelligentes Informationsmanagement im Unternehmen 23

HSM, ILM oder Tiered Storage setzen eine saubere, kontinuierliche Datenklassifizie-rung voraus. Diese kann heute, insbesondere bei unstrukturierten Daten, in der Regel nur manuell erfolgen, was allerdings viel zu teuer ist. Auf dem Markt erhältliche Soft-ware wie Data Movers oder Policy Engines haben ebenfalls ihren Preis, der sich erst einmal rechnen muss. Die nahe liegende Konsequenz: Viele Kunden halten ILM oder Tiered Storage für eine gute Idee, scheuen sich aber vor entsprechenden Investitionen. In der Praxis hat sich ILM als umfassendes Konzept immer nur dann durchgesetzt, wenn es als integriertes Produkt zu haben war (wie bei CentricStor von Fujitsu Siemens Com-puters).

Es wäre ein folgenreicher Irrtum zu glauben, einmal gespeicherte Daten verändern nicht ihre Wichtigkeit je nach Stellung im Geschäftsprozess, zeitlicher Nähe zu ihrer Erfassung oder weiteren Kriterien. Schneller Zugriff auf gebuchte Flugdaten ist zum Beispiel unmittelbar vor, während und nach dem Flug notwendig, nach einer Woche sind sie nur noch für Statistiken und Auswertungen des Kaufverhaltens der Kunden von Interesse. Deshalb sind Entscheidungen darüber zu treffen, wo und wie lange die Daten jeweils aufbewahrt werden sollen. Noch zur Zeit der Einführung von „nearline“ Tape Libraries zu Anfang der 1990er Jahre ging man davon aus, dass die Archivierung die letzte Phase vor dem Löschen der Daten sei. Längere Lebenszeiten als ein bis zwei Jahre für die meisten Daten konnte sich damals niemand vorstellen.

Doch das hat sich gründlich geändert. Zum einen haben weltweit staatliche Regeln dazu gezwungen, in der IT gespeicherte Daten länger aufzubewahren, zum anderen ermöglichen neue Festplattentechnologien eine Aufspaltung von Disk Storage in meh-rere verschiedene Phasen. Jetzt wächst der Anteil der Daten, die gegen Ende ihres Lebenszyklus noch immer aufbewahrt werden, und sinkt nicht mehr so wie früher.

Es gibt also mehr „Verschiebebahnhöfe“ als früher, und es muss mehr Rechen- bezie-hungsweise Serverleistung für das Bewegen der Daten von einem Tiered Storage zum nächsten in Anspruch genommen werden. Für die nötige Klassifizierung der Daten und die Automatisierung der Prozesse haben sich zunächst viele Start-ups engagiert, denen dann auch die Großen der Branche gefolgt sind. So arbeitet Fujitsu Siemens Computers hier mit Kazeon zusammen.

Page 23: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Kapitel 3

Online-Storage: von Platten und Zuverlässigkeit

In diesem Kapitel geht es um den äußerst sensiblen Bereich der direkten Daten-speicherung – während oder unmittelbar nach ihrer Entstehung im Geschäfts-prozess. Hier darf nichts verloren gehen, denn ein doppelter Boden in Form eines Backups auf zusätzlichen Medien wird erst anschließend eingezogen. Deshalb spielen Kosten hier nur eine nachgeordnete Rolle. Was kennzeichnet die teuren Fibre Channel- und SAS-Platten, die bei Online-Storage eingesetzt werden? Warum werden hier RAID-Systeme verwendet? Und wie schnell muss der direkte Datenzugriff eigentlich sein? Das sind nur einige der Fragen, die näher beleuchtet werden.

In der Frühzeit der elektronischen Datenverarbeitung, die ausschließlich auf Groß-rechnern (Mainframes) stattfand, wurden ursprünglich Lochkarten und ab 1952 Magnetbänder zur Speicherung der Daten verwendet. Bei beiden Methoden wurden

binäre Daten (sie bestehen aus zwei Zahlen, „1“ oder „0“) entweder durch eine Lochung oder Nichtlochung auf den Papierkarten beziehungsweise durch eine Magnetisierung oder Nichtmagnetisierung auf der Magnetschicht der Bänder „eingestanzt“. Diese Form der Speicherung ist noch heute üblich und notwendig, da Computer nur mit dem binä-ren Zahlensystem, auf das sämtliche Informationen reduziert oder umgewandelt wer-den, umgehen können. Anders gesagt: Dieses Zahlensystem besteht eigentlich nur aus den beiden Zahlen „1“ und „0“, weil das Kernstück der Computer, der Prozessor, nur auf der Basis von Strom arbeiten kann („an“ und „aus“). Das bedeutet zugleich, dass die Datensicherung prinzipiell auf sehr unsicheren Beinen steht.

Magnetbänder waren schnell und konnten eine für die damalige Zeit große Daten-menge speichern – zu Anfang fünf Megabyte (= 5 Millionen Zeichen, entspricht mehre-ren Büchern oder zum Beispiel dem kompletten Werk von Shakespeare – siehe die Über-sicht in Kapitel 1). Doch schon 1956 kam ein alternativer Datenträger auf: die Magnet-platte, Vorläufer der modernen Festplatte. Die ersten Datenträger dieser Art bestanden aus einem Stapel von 51 Scheiben mit einem Durchmesser von 60 cm (IBM Ramac). Festplatten, wie sie noch heute üblich sind, verfügen über mehrere, sich drehende

Page 24: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

26 Kapitel 3

Scheiben, die in einem luftdichten Gehäuse übereinander angeordnet sind. Anders als bei den Magnetbändern werden die Daten hier nicht mehr der Reihe nach (sequentiell) auf den Datenträger geschrieben und gelesen, was den Zugriff und die Suche verlang-samt, sondern auf diese beschichteten Scheiben. Ein Schreib-/Lesekopf wird von einem Motor über diese Scheiben bewegt und kann zu allen Stellen springen. Dies wird im Gegensatz zur Nacheinander-Speicherung als „wahlfreier Zugriff“ bezeichnet, der sich vor allem durch seine Schnelligkeit auszeichnet.

Lebenszyklus von Festplatten

Festplatten bestehen überwiegend aus mechanischen Teilen, die sich ständig bewe-gen und dabei Energie verbrauchen. Dies passiert auch dann, wenn gar keine Schreib-

oder Lesezugriffe stattfinden. Zu den Vorteilen von Magnetbändern zählt dem gegen-über, dass sie nicht ständig bewegt werden und dass sie ihre Daten auch im stromlosen Zustand bewahren. Die Lebensdauer von Festplatten ist wegen ihrer Mechanik und dadurch bedingter Fehlerquellen generell begrenzt – im Durchschnitt sollten sie nach drei bis vier Jahren ausgetauscht werden, auch wenn einige der Plattenhersteller von längeren Lebenszyklen sprechen. Bei Bändern für den professionellen Bereich geht man davon aus, dass sie dagegen 30 oder sogar mehr Jahre halten.

Quelle: Gartner Dataquest

26,4

33,9

16,4

23,330,4

1,444,9

23,3

Parallel SCSI SAS Fibre Channel ATA/SATA

Der Festplattenmarkt nach Schnittstellen

2007 2009

Die SAS-Schnittstelle entwickelt sich laut Gartner Dataquest zur Nummer 1 bei den Festplatten. Das lange dominierende Parallel SCSI schrumpft zur Bedeutungslosigkeit.

Page 25: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Online-Storage: von Platten und Zuverlässigkeit 27

Der Einsatzbereich von Tape verlagert sich heute innerhalb des Kontinuums von Tie-red Storage immer mehr vom Backup zur Archivierung (siehe Kapitel 5), während leis-tungsfähige Festplatten den Hauptteil der Datenspeicherung und oft auch einen Teilbe-reich des Backups übernehmen. Platten stehen im direkten Zugriff der Server für geschäftskritische Daten, wobei im Online Storage sehr schnelle, aber teure Fibre Chan-nel- und SAS-Platten verwendet werden. Preisgünstigere und langsamere Platten fin-den Verwendung für ein Backup auf Disksystemen oder als Zwischenstation in Form von Virtual Tape Libraries (VTL), auf der die Daten noch für einen Applikationszugriff bereitgehalten werden (Nearline-Speicher), bevor sie nach bestimmten Regeln und/oder Fristen „endgültig“ auf Tape auslagert werden.

Es dauerte bis zum Jahr 1980, als die 1979 gegründete Firma Seagate (heute der weltweit größte Plattenhersteller) eine für IBM-PCs geeignete Festplatte mit einer Kapazität von 5 MByte herausbrachte. Diese Platten und ihre direkten Nachfolger hat-ten keine eigene Intelligenz und wurden komplett von einem externen Controller gesteuert. Die heute üblichen Festplatten beruhen auf den Standards IDE/EIDE (Integra-ted Drive Electronics und Enhanced Integrated Drive Electronics) und ATA (Advanced Technology Attachment), die aus dem Consumer-Bereich stammen, oder werden als SCSI-Platten (gesprochen „Skasi“ / Small Computer Systems Interface) bezeichnet, ent-wickelt für den Unternehmensbereich. An SCSI-Controller konnten erstmals sehr viele

Die Leistungsfähigkeit verschiedener PlattentypenFibre Channel SAS SCSI SATA

Spezifikation Online Storage und Trans-

aktionsdaten

Online Storage und Trans-

aktionsdaten

Online Storage und Trans-

aktionsdaten

Low-end File Storage

Umdrehungs-geschwindigkeit

10.000, 15.000 rpm *

10.000, 15.000 rpm *

10.000, 15.000 rpm * 7.200 rpm *

Durchschnitt liche Zugriffszeit 5,5 – 7,5 ms ** 5,5 – 7,5 ms ** 5,5 – 7,5 ms ** 13 – 15 ms **

Maximale Laufzeit (Std. x Tage) 24 x 7 24 x 7 24 x 7 10 x 5

I/O Duty Cycle Hoch Hoch Hoch NiedrigMaximale Busge-schwindigkeit 4 Gigabit/sec 3 Gigabit/sec 3,2 Gigabit/sec 1,5 – 3 Giga-

bit/secInteraktives Feh-lermanagement Ja Ja Ja Nein

* rpm = Umdrehungen pro Minute** ms = Millisekunden

Quelle: Horison Information Strategies

Page 26: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

28 Kapitel 3

verschiedene Geräte angeschlossen werden – von der Festplatte bis zum Scanner –, außerdem war ihre parallele Datenübertragungsrate höher als frühere sequentielle Transportwege, bei der die Daten nacheinander (= sequentiell) übertragen wurden. Seit 2001 gewinnt die ATA-Weiterentwicklung SATA (Serial Advanced Technology Attach-ment) eine immer größere Verbreitung, wobei die Daten hier nicht mehr parallel, son-dern nacheinander (seriell) übertragen werden.

SATA-Festplatten werden zu einer Konkurrenz zu den Fibre Channel-Festplatten, da sie heute eine höhere Ausfallsicherheit erreichen und preisgünstiger sind. Die Fibre Channel-Technologie insgesamt gilt seit dem Aufkommen von eigenen Speichernetzen (Storage Area Networks oder SANs) als besonders leistungsfähig für den Unterneh-mensbereich, sprich zuverlässig und schnell. In diesem professionellen Sektor spielen heute ferner SAS-Platten (Serial Attached SCSI) eine große Bedeutung, die die SCSI-Platten allmählich ersetzen. Da sie kompatibel zu SATA sind, können sie auch gut zusammen in einem gemeinsamen Plattengehäuse (Array) eingebaut werden, was zu einer Verbindung von Tier 1 und Tier 2 in einem einzigen Gerät führen kann.

Die technischen Möglichkeiten der verschiedenen Festplattentypen sind noch nicht ausgereizt, so dass es wahrscheinlich ist, dass sich SATA weiter in die professionelle Speicherlandschaft ausdehnen wird, selbst aber wiederum von SAS im Nearline Sto-rage abgelöst werden wird. Der Vorteil von Fibre Channel liegt neben einer besseren Ausstattung mit internen Mikroprozessoren zur Mechanik- und Fehlerkontrolle auch darin, weiter entfernt von anderen Geräten im Speichernetz (bis zu 10 Kilometer, bei

Was Kunden von Online Storage verlangen: Zuverlässigkeit und Verfügbarkeit

• Was ist am schwersten zu ersetzen, wenn ein Unternehmen im Katastrophenfall alles verliert?

– Die Gebäude? – Die Computer? – Die Daten?• „50 Prozent aller Unternehmen, die ihre Daten in der Folge eines Feuers oder einer

Überschwemmung verlieren, sind innerhalb eines Jahres bankrott.“• Mögliche Lösungen:

– Zuverlässigere Festplatten (von SATA zu SAS migrieren)– Redundante Plattensysteme (RAID, Mirroring)– Regelmässige Backups

Quelle: Fujitsu Siemens Computers

Page 27: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Online-Storage: von Platten und Zuverlässigkeit 29

SCSI nur 25 Meter) stehen zu können. Bei dem Aufbau von Storage Area Networks (SANs) ab Ende der 90er Jahre hat diese Funktionalität eine große Rolle gespielt, da sich so räumlich entfernte Standorte, zum Beispiel Häuser auf einem Fabrikgelände oder innerhalb einer Stadt, miteinander in einem Speichernetz verbinden lassen. Durch die Anwendung von IP-Protokollen für Speichernetze kann inzwischen die Reichweite von FC- und SCSI-/SAS-Festplatten auf sehr lange, globale Distanzen ausgedehnt werden.

Im Rahmen einer Daten- und Speicherhierarchie werden im Online Storage aus-schließlich leistungsfähige FC-, SAS- und SCSI-Platten eingesetzt [1]. Solid State Disks (SSD), die bereits von einigen Herstellern in ihre Speichersysteme eingebaut werden, haben vor allem aufgrund ihrer hohen Zugriffsgeschwindigkeit eine Bedeutung als eine Art zweiter Cache (Arbeitsspeicher oder RAM). Da sie über keine mechanischen Teile verfügen, haben sie im Vergleich mit klassischen Festplatten eine längere Lebensdauer. Allerdings kommt auch diese zu einem Ende: Der Lebenszyklus von SSDs endet laut Herstellerangaben nach 10.000 bis 1.000.000 Schreibzugriffen [2].

Festplatten – ein Widerspruch zur langfristigen Datensicherung

Selbst wenn man sich für hochwertige Festplatten im Online Storage entscheidet, kommt man an einem Problem nicht vorbei: Die Haltbarkeit von Festplatten und

damit der auf ihnen gespeicherten Daten ist extrem begrenzt. Nach drei bis vier Jahren läuft in der Regel die Gewährleistung durch den Hersteller aus, und aus buchhalteri-schen und Abschreibungsgründen wird häufig eine Neuinvestition vorgenommen.

Doch der eigentliche Grund für diese Maßnahme liegt in einem eigenartigen Wider-spruch des so genannten digitalen Zeitalters: Zwar werden immer mehr Informationen auf magnetischen Speichern abgelegt, doch diese sind alles andere als langlebig – ein Stromausfall, ein Headcrash, Materialschäden, Diebstahl oder ein plötzliches Lebens-ende der System-Hardware genügen, um alles das, was so sorgfältig und unter Auf-wand beträchtlicher Kosten gespeichert wurde, endgültig dem Nirwana zu übergeben.

Der rechtzeitige Austausch von Festplatten hängt auch davon ab, unter welchen äußeren Bedingungen – zum Beispiel Temperatur – und wie lange die Festplatten lau-fen. Der Lebenszyklus (Duty Cycle) wird ferner durch häufiges Hochfahren und Aus-schalten mehr belastet, als wenn eine Platte im 24-Stunden-Dauerbetrieb ist – ver-gleichbar den Stresssituationen von Flugzeugen bei Start und Landung [3].

Selbst wenn die Platten im Einzelfall noch etwas länger über den Drei-Jahres-Rhyth-mus hinaus halten sollten, ist es ratsam, rechtzeitig einen Wechsel vorzunehmen und die Daten umzukopieren: Was sind schon die (stetig fallenden) Kosten für neue Platten

Page 28: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

30 Kapitel 3

und die anfallenden Administratorstunden im Verhältnis zu einem (selbst verschulde-ten) Datengau, dessen Kosten unter Geschäftsgesichtspunkten ins Unermeßliche explo-dieren können?

Ausfallsicherheit mit RAID

Um die Daten auf dem prinzipiell unsicheren Medium Festplatte zu schützen, gibt es so genannte RAID-Lösungen, die heute in den meisten Disksystemen standardmä-

ßig eingesetzt werden. RAID, das Redundant Array of Independent (je nach Lesart auch: Inexpensive) Disks geht auf eine Entwicklung der Universität Berkeley Mitte der 90er Jahre zurück. Dabei muss man zwei wesentliche Funktionsbestimmungen eines RAID unterscheiden.

Zunächst geht es darum, viele kleine und billige (inexpensive) Platten zu einer Gruppe zusammenzufassen, um sie als LUN (Logical Unit Number) einer Applikation mit erhöh-ter Performance zur Verfügung zu stellen. Mit RAID O werden in diesem Fall mehrere

Quelle: E. Pinheiro/W.-D. Weber/L. A. Barroso, Failure Trends in a Large Disk Drive Population, Februar 2007 (Google)

Fehlerraten pro Jahr (AFR) und nach Plattenalter10

8

6

4

2

0

AFR

(%)

3 M

onat

e

6 M

onat

e

1 Ja

hr

2 Ja

hre

3 Ja

hre

5 Ja

hre

4 Ja

hre

In die Fehlerraten pro Jahr ist nicht nur das jeweilige Alter der Festplatten eingegangen, sondern es wurden auch verschiedene Plattentypen berücksichtigt.

Page 29: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Online-Storage: von Platten und Zuverlässigkeit 31

Platten zusammengefasst, um so die Leistung zu erhöhen. Allerdings erhöht sich in diesem Fall auch das Risiko (entgegen dem allgemein so verstandenen Anspruch, mit RAID eine höhere Datensicherheit zu erreichen), da die statistische Wahrscheinlichkeit steigt, dass durch den Ausfall einer Platte im Verbund das ganze System nicht mehr funktioniert.

Ein RAID erscheint gegenüber dem Betriebssystem also als eine einzige logische Festplatte (bestehend aus vielen verschiedenen physikalischen Platten). Mit der RAID-Funktion des Striping (= engl Stripe = Streifen) lassen sich die Kapazitäten jeder Platte im Verbund in Partitionen oder Teilbereiche aufteilen, die wiederum in einem oder meh-reren LUNs zusammen adressiert werden können: Anwendungsdaten können so über mehrere Platten hinweg verteilt werden, womit sie bereits eine frühe Form von Spei-chervirtualisierung nutzen.

Heute werden RAIDs vor allem durch ihre zweite Begriffsbestimmung wahrgenom-men: Hier geht es darum, in verschiedenen Varianten für einen Ausfallschutz von Plat-ten zu sorgen. Doch ein RAID-Controller kann mehr: Er übernimmt die Verwaltung der Platten, ändert ihre Konfiguration und die Größe des Systemcaches, jeweils entspre-chend der Applikationsanforderungen. Der gemeinsame Nenner der verschiedenen RAID-Level (außer RAID 0) besteht darin, je nach den Anforderungen eines Systems oder einer Applikation für ein ausgewogenes Verhältnis von Performance und Redun-danz zu sorgen. Die Redundanzvarianten erfordern zusätzliche Investitionen in Platten, die lediglich für den Ernstfall eines Plattenversagens bereitstehen (Hot Spares).

So können sich Disksysteme durch Parity-Berechnungen, die viel Rechenzeit bean-spruchen und heute teilweise in Chips gegossen sind, wieder in einen früheren Zustand zurückversetzen, sollte eine Platte oder ein LUN-Bereich ausgefallen sein. Bei RAID 1 wird alles doppelt gespeichert (wofür doppelte Diskkapizität erforderlich ist), während bei RAID 5 etwa zehn Prozent mehr Plattenplatz angeschafft werden muss, um für Redundanz zu sorgen: Für mehrere Platten steht insgesamt eine Platte bereit, um im Ernstfall einzuspringen.

Das inzwischen weit verbreitete RAID 6 wurde entwickelt, um eine mögliche Fehler-quelle in RAID 5 zu beseitigen: Was passiert eigentlich, fragten sich Spezialisten ver-schiedener Hersteller und Forschungsgruppen, wenn während der rechenintensiven Rekonstruktion des ursprünglichen Parity-Zustandes nach dem Ausfall einer Platte gerade die Ersatzplatte oder eine weitere Platte im Array ihren Dienst verweigern sollte? RAID 6 hält für dieses erweiterte Ausfallszenario eine zweite Parityberechnung vor, die bei einem zweiten Plattenausfall aktiv wird. In so einem Fall würde die Performance des Controllers um mehr als 30 Prozent verglichen mit einem einfachen Ausfall bei RAID 5 abnehmen.

Die meisten Hersteller empfehlen für ihre Systeme oder Applikationen eine bestimmte RAID-Konfiguration. Oracle empfiehlt zum Beispiel für seine Datenbank eine Kombination von RAID 1 und 5, um die Performance zu steigern. RAID 3 eignet

Page 30: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

32 Kapitel 3

sich mehr für Videostreaming, und NetApp schreibt für seine NAS-Filer RAID 4 vor, weil damit sehr schnelle Schreib- und Leseaktionen auf den Platten vorgenommen werden können [4].

Wieviel Datenschutz ist genug?

Die IT-Hersteller waren ziemlich erfinderisch, um um die Plattenstapel in den Disk Arrays herum weitere Schutzfunktionen für die Datenhaltung einzuführen. Alle

Verfahren sind von dem Grundgedanken der Redundanz gekennzeichnet: nach Mög-lichkeit alles doppelt oder mehrfach vorhalten. Auf Hardware-Ebene gehören dazu Cluster (dt. Haufen) und Grid (dt. Netz): Hier wird bestimmte Hardware mehrfach aus-gelegt, sodass im Schadensfall das zweite Gerät mit der identischen Konfiguration und dem identischen Datenbestand einspringen kann. Die Übergänge zwischen Cluster und Grid sind mehr auf einer Skalierungsebene zu sehen und unter Experten sehr umstritten (siehe auch Ausblick auf Seite 73).

International agierende Unternehmen vernetzen auch ihre Datenspeicher miteinan-der, sodass sie in erhöhtem Grade darauf achten müssen, ihre Speichermedien, Spei-chernetze und Backups gegen Missbrauch zu schützen. Heutige SAN- und NAS-Infra-strukturen verfügen sowohl auf Fibre Channel- als auch auf iSCSI-Basis nur über geringfügige Sicherheitsmechanismen. Insofern genügen sie häufig nicht den Anforde-rungen einer Security-Policy für die Unternehmens-IT.

Meilensteine in der Geschichte der Festplattenindustrie

Kapazität Hersteller Modell Jahr Formatierte Kapazität 5 MByte IBM 350 Ramac 1956 4,4 MByte 10 MByte IBM 1301 1962 21,6 MByte100 MByte IBM 2302-3 1965 112 MByte500 MByte STC 8800 Super Disk 1975 880 MByte 1 GByte IBM 3380 1981 1,260 GByte100 GByte Seagate Barracuda 180 2001 181,6 GByte500 GByte HGST 7K500 2005 500 GByte 1 Terabyte HGST 7K1000 2007 1 Terabyte 1,5 Terabyte Seagate Barracuda 7200.11 2008 1,5 Terabyte

Quelle: Storage Newsletter, Ausgabe Juli 2008

Page 31: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Online-Storage: von Platten und Zuverlässigkeit 33

In FC-SANs sorgen Switche für ein Zoning, das eine Zugriffssteuerung auf die einzel-nen Speichersysteme erlaubt. Dieses Zoning kann hardware- oder software-basiert erfolgen. Beim Softzoning erhalten Geräte lediglich Informationen über die Systeme, mit denen sie Daten austauschen dürfen. Beim Hardzoning überprüft eine Hardware alle durchlaufenden Pakete und leitet sie nur an erlaubte Adressen weiter. Unter LUN-Masking versteht man in einem FC-SAN die Funktion, einer Applikation nur die Speicher-bereiche sichtbar zu machen, die sie für die Durchführung ihrer Aufgaben braucht.

Bei IP-SANs auf iSCSI-Basis wird IPsec zur Authentifizierung und Sicherung der Datenströme zum Beispiel durch Verschlüsselung eingesetzt (5).

Das Prinzip von RAID 1 – eine Platte wird komplett auf eine andere gespiegelt – lässt sich auch auf die Spiegelung (Mirroring) eines ganzen Speichersystems übertragen: An einem zweiten, möglichst mehrere Dutzend Kilometer entfernten Standort, wird ein identisches zweites Server- und Speicherszenario in Form eines Ausweichrechenzent-rums aufgebaut. Permanent werden alle Daten von Standort A nach Standort B über-tragen, sodass dort der gleiche Datenbestand existiert. Im Katastrophenfall wird die produktive IT samt Datenspeicherung von A nach B übergeben. Da alles redundant und gespiegelt ist, kann dort der IT-Betrieb fortgeführt werden.

Datensicherung setzt sich logischerweise auf der Software-Seite fort in den Verfah-ren für Backup und Restore, Continuous Data Protection (CDP) sowie Snapshots (Dazu mehr in Kapitel 5). Alle diese Verfahren haben den gemeinsamen Ursprung in dem Grundproblem der Datenspeicherung auf elektromagnetischen Medien wie Festplatte oder Tape (und DVD oder Blu Ray ebenso): Bei allen Vorzügen dieser Technologien kön-nen sich die gespeicherten Daten sehr schnell in Luft auflösen. Ein altes Medium wie Papier ist da beständiger, und gegen äußere Gefahren wie Feuer oder Naturkatastro-phen gibt es bewährte Gegenmittel. Elektronische Datenträger dauerhaft vor Ausfall oder Beschädigung zu schützen bleibt dagegen eine beschwerliche Daueraufgabe, der die ganze Aufmerksamkeit der IT-Verantwortlichen gehören muss. Denn das absolut ausfallsichere Patentrezept gibt es noch nicht.

Page 32: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Kapitel 4

Speichernetze – die Qual der Wahl

Speichernetze sind heute „state of the art“. Zumindest alle großen Unternehmen setzen diese Technologie ein. Allerdings existiert sie in verschiedenen Varianten, was ihr Verständnis gerade für Anfänger kompliziert gestaltet. In diesem Kapitel geht es deshalb darum, einige grundlegende Architekturmerkmale der verschie-denen Ansätze zu beschreiben und wesentliche Begriffe zu erklären. Dies ist um so mehr notwendig, als gerade mittelständische Unternehmen heute ebenfalls die Möglichkeit besitzen, für ihre Zwecke ein eigenes Speichernetz einzurichten. Doch für welches soll man sich in der Praxis entscheiden?

Noch sind Festplatten, die in Server und PCs eingebaut oder in Speichersystemen (engl. Storage Arrays) direkt an die Server angeschlossen sind, die am weitesten verbreitete Struktur in mittelständischen Unternehmen: Man spricht hier von

Direct Attached Storage (DAS). Der Mittelstand hat die Produktivkräfte der IT entdeckt und nutzt sie für seine Geschäftsprozesse. Seine finanziellen Ressourcen beschränken aber zugleich seine Investitionen in eine eigene IT-Infrastruktur. Darüber hinaus verfügt

EMEA-Marktanteile für DAS, NAS und SAN 2007

Quelle: IDC, 2008

SAN

DAS

NAS

17 %

23 %60 %

Auch wenn heute insgesamt das SAN die Topologie von Speichersystemen bestimmt, ist der Anteil von DAS immer noch recht groß, besonders beim Mittelstand.

Page 33: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

36 Kapitel 4

man über weniger Fachkräfte, die sich noch dazu nicht so spezialisieren können wie ihre Kollegen in den Großunternehmen, die jeweils nur einen kleinen Teil der IT zu betreuen haben. Die praktische Folge: Der Mittelstand macht nicht jede Mode (und jede echte Neuerung) mit und konzentriert sich auf das Wesentliche. Eine DAS-Struktur beizube-halten, entspricht zwar nicht dem Stand der Speichertechnologie von heute, kann aber als Ausgangspunkt für eine schrittweise Transformation genutzt werden.

Doch was bedeutet DAS eigentlich? Anwender, die pro Server einen oder mehrere Speichersysteme anschließen, verfügen über ein dediziertes, exklusives Speichersystem für genau diejenige Applikation, die auf dem Server installiert ist. Diese Silostruktur mag mit der Zeit etwas unübersichtlich werden – und sehr viel Platz und Energie im Server-raum oder im Rechenzentrum verschlingen –, aber sie ist letztlich einfach zu überwa-chen und zu verwalten. Der Nachteil liegt auf der Hand: So wie der einzelne Server, wenn er nicht in mehrere Teilsegmente (Partitionen) aufgeteilt ist, ist auch jedes direkt angeschlossene Speichergerät in der Regel nicht voll ausgelastet. Die überflüssige Kapazität und Rechenpower wird beim Server für Spitzenzeiten (Peaks) für besondere Anlässe wie zum Beispiel interne Monatsabrechnungen oder externe Zugriffe bei Web-bestellungen in der Vorweihnachtszeit benutzt. Und beim Speicher wird sie für entspre-chende Schreib- und Lesevorgänge „reserviert“, es klafft also eine Lücke zwischen der getätigten Investition und dem aus ihr erzielten Nutzen. Analysten sehen einzelne Ser-ver nur zu etwa 15 bis 20 Prozent ausgelastet, bei Speicher soll die Auslastung durch-schnittlich bei etwa 40 Prozent liegen.

In anderen Unternehmen gab es mit der Durchsetzung der Client/Server-Infrastruk-tur über das interne Netzwerk vermittelte Speicherstrukturen, bei denen mehrere Ser-vereinheiten auf die gleichen Speichersysteme Zugriff hatten – allerdings getrennt für Großrechner (Mainframes) und Open Systems (Unixrechner, später auch Windows-Ser-ver). Doch die im internen oder lokalen Netz (engl. Local Area Network/LAN) zu bewe-genden Datenmengen wurden immer größer, was zu Lasten der Übertragungsgeschwin-digkeit ging und Datenverluste verursachte. Netze auf der Basis des Internet-Protocols (IP), die ursprünglich nur für den Transport von Nachrichten entwickelt worden waren [1], kamen somit an die Grenze ihrer Belastbarkeit.

Warum Speichernetze sinnvoll sind

Das Bedürfnis nach einem abgetrennten Netz ausschließlich für Speicherzwecke schlug sich gegen Ende der 90er Jahre in einer eigenen Technologie für Storage

Area Networks (SANs) nieder. Die neue Infrastruktur bestand aus einer eigenen Verkabe-lung und einer Weiterentwicklung des SCSI-Protokolls, das bereits für den Anschluss verschiedener Geräte wie Storage oder Drucker an einen Server eingesetzt wurde und

Page 34: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Speichernetze – die Qual der Wahl 37

den Namen Fibre Channel (FC) trägt. Das Fibre Channel-Protokoll wurde eigens für den Transport von Dateien entwickelt. Es gilt als zuverlässig, und erreichte zuletzt mit 8 Gbit/sec eine Transportgeschwindigkeit, die Ethernet sogar eine zeitlang überholte.

In einem FC-Netz kommt speziellen Switches die Aufgabe zu, Speichersysteme mit Servern und auch untereinander zu verbinden. Ein Switch funktioniert als eine Art Mehrfachsteckdose, an die verschiedene Geräte angeschlossen werden können [2]. Ent-gegen einem weit verbreiteten Image von Fibre Channel als „schwierig einzurichten und

Tape Storage

Server Server

PC Client PC ClientPC Client

Disk StorageDisk StorageDisk StorageDisk Storage

Ethernet LAN

Fibre Channel SANStorage Area Network

Quelle: Fujitsu Siemens Computers

Ein Storage Area Network (SAN) bildet eine eigene Speicher-Infrastruktur, die nur für den Daten-transport bestimmt ist.

Page 35: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

38 Kapitel 4

zu verwalten“ wird es von Fachleuten als in der Handhabung einfach beschrieben. So äußert sich zum Beispiel auch Mario Vosschmidt, Technical Consultant bei dem ameri-kanischen IT-Hersteller LSI.

Diese Fibre Channel-Architektur verband sich vor allem in ihrer Entstehungszeit mit dem Namen der 1995 gegründeten kalifornischen Firma Brocade . Sie ist noch heute Marktführer bei FC-Switches, die als Schaltstelle in einem SAN funktionieren und im Laufe der Entwicklung mit mehr „Intelligenz“ ausgestattet wurden. Das bedeutet, dass solche Switches Aufgaben im Netzwerk wie Zoning oder Virtualisierung übernehmen können. Mit ihrer Hilfe lässt sich eine „Fabric“ aufbauen, eine Struktur, die den Kern eines SANs bildet.

Ein besonderer Gesichtspunkt ist die Einrichtung unterschiedlicher Speicherzonen (Zoning). Der Administrator kann so festlegen, welche Geräte und Daten miteinander verbunden werden sollen und welche nicht. Dies dient zum Schutz vor unlegitimiertem Zugriff innerhalb eines Unternehmens, aber auch nach außen. Wird ein SAN erweitert, können weitere Switches und Zonen eingerichtet werden, je nach Vorhandensein von Ports (Anschluß für Kabel). Für größere FC-Switches mit mindestens 128 Ports hat sich die Bezeichnung „Director“ eingebürgert. Brocade hat mit McData, CNT und Inrange gleich mehrere Anbieter übernommen, die bei Directors stark engagiert waren [3]. Mit diesen Aufkäufen wollte und konnte der Hersteller seine Marktposition gegenüber Cisco verstärken.

Cisco, weltweit führend bei Ethernet-Switches, hat seit mehreren Jahren auch Fibre Channel-Lösungen im Programm und sich damit als Konkurrent bei Fibre Channel gegen Brocade positioniert. Nicht zum ersten Mal in der Geschichte der Informationstechnolo-gie werden die Karten zwischen den beteiligten Firmen neu gemischt – eine sich wieder-holende Entwicklung, die durch eine neue Technologie am Horizont verstärkt werden wird: Mit Fibre Channel over Ethernet (FCoE) wird derzeit versucht, die getrennten Netze von Nachrichtentransport (Ethernet beziehungsweise TCP/IP) und Datenspeicherung (Fibre Channel und iSCSI) wieder zu einem gemeinsamen Netz zusammen zu führen. IP-SANs auf iSCSI-Basis wären dazu auch schon in der Lage, doch hält man meistens aus Performancegründen das Kommunikations- und das Speichertransportnetz getrennt.

Ein neues FCoE-Netz erfordert neue Standards und eine Abstimmung zwischen den verschiedenen Anbietern. Doch bevor es endgültig soweit ist, toben harte Kämpfe um die Positionierung am Markt. Jeder Hersteller will bei FCoE dabei sein, auch wenn er sich damit fast vollständig auf neue Produkte umpolen muss . Noch haben einige Anbieter offenbar nicht vergessen, dass eine frühere Konkurrenztechnologie zu Ethernet mit dem Namen „Token Ring“ auch deshalb das Rennen verloren hatte, weil sich die dahin-ter stehenden Hersteller zu sehr auf ihr Kernprodukt konzentriert und damit schließlich den Anschluss verloren hatten [4].

Die historische Leistung von FC-SANs, die heute in großen Unternehmen und Insti-tutionen die vorherrschende Speicher-Infrastruktur darstellen, besteht in effizienten,

Page 36: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Speichernetze – die Qual der Wahl 39

schnellen Transportdiensten, die wenig anfällig für Fehler sind. Obwohl die Technik im Vergleich zu einem klassischen Netzwerk einfach ist, treten in der Praxis dennoch häu-fig Probleme auf, weil die Server- und Netzwerkadministratoren zu wenig mit der Spei-cherung von Daten vertraut sind. Verglichen mit Ethernet ist Fibre Channel letztlich eine Nischentechnologie geblieben, bei der es auch heute noch an vielen Ecken an Standards mangelt. Außerdem sind in den letzten Jahren zum Teil falsche Erwartungen geweckt worden, weil die Hürden (und Preise) für FC-Schulungen zu hoch angesetzt wurden. Das Management der im SAN angeschlossenen Speichersysteme geschieht meist über die von den Herstellern mitgelieferten Tools, was nur eine geringe Einarbeitungszeit erfordert und von den Lieferanten direkt unterstützt wird [5].

File Services konsolidieren

Etwa zeitgleich mit FC-SANs entstand eine alternative Netzstruktur für das Speichern von Daten im Firmennetz, die sich vor allem mit dem Namen von Network Appliance

(heute NetApp) verbindet. Ein Network Attached Storage (NAS) bezeichnet eine inte-grierte Gesamtlösung, die Server, Betriebssystem, Speichereinheiten, Dateisystem und Netzwerkdienste zusammenfasst. NetApp bietet hierfür so genannte Filer an, die die Filedienste NFS (= Network File System, ursprünglich von Sun entwickelt) und CIFS

Application

DASDirect Attached Storage

SANStorage Area Network

File System

Disk Storage

Application

File System

Disk Storage

Network

Application

File System

Disk Storage

Network

NASNetwork Attached Storage

Quelle: Fujitsu Siemens Computers

Jede Topologie verfolgt ein unterschiedliches Konzept, aber das Ziel ist das gleiche: die Sicherung von Applikationsdaten.

Page 37: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

40 Kapitel 4

(= Common Internet File System unter Windows) unterstützen und besonders für unstrukturierte Daten geeignet sind.

Während in einem FC-SAN die Dateien in Blocks, d.h. in kleinen Datenblöcken von vier bis 128 KByte, gespeichert werden, handelt es sich bei der Sicherung von File Ser-vices um zusammenhängende Dateien. Dies ermöglicht dem Administrator eine einfa-chere Handhabung, und darüber hinaus kann auch direkter auf die Inhalte der Dateien zugegriffen werden. Bei der Speicherung in Blöcken, die sich von der physikalischen Aufteilung von Festplatten in Sektoren und Blöcke herleitet, sind zunächst keine Daten über Anfang und Ende der Dateien zugänglich und auch ihre Inhalte und Strukturen erschließen sich nicht unmittelbar. Jeder PC-Benutzer weiß, dass seine Daten in

bestimmten Dateien und Ordnern abgelegt sind und so über eine logische Struktur ver-fügen. Er weiß aber auch, dass seine Daten letztlich zerstreut auf der Festplatte herum-liegen – nach längerer Benützung sind sie „fragmentiert“ (verteilt, zerrissen), weil bei jedem Speichervorgang als erstes freie Blöcke belegt werden, ohne Rücksicht auf den inhaltlichen Zusammenhang einer Datei. Das Betriebssystem braucht in der Folge immer länger, um Dateien zu öffnen. Es muss ja erst einmal die verschiedenen Blöcke auf der physikalischen Ebene finden und zu einem Ganzen, für den Benützer Sichtbaren zusam-mensetzen. Mit dem Befehl „Defragmentieren“ schafft der geplagte Windows-Benutzer wieder eine neue Ordnung auf der Festplatte – zumindest für eine Weile.

In einem NAS stehen die Netzwerkfunktionen [6] im Vordergrund und weniger die Performance der eingesetzten Festplatten. Viele Anwender betrachten es als kosten-

Der Unterschied zwischen SAN und NASSAN NAS

Netzwerk Fibre Channel – komplex, teuer, geschlossenes System,

sicher

IP – einfache Inbetriebnahme, preiswert, offenes System, Sicherheit beachten

Protokoll FC, schnell bis 200 Mb/s TCP/IP –schnell, aber sehr hoher Overhead (bis zu 40 % netto)

Optimiert für … Schnellen DatentransportEinfache Implementierung,

offene und schnelle Kommunikation über lange Distanzen

Datentypen Alle Daten Nur FilesAufteilung Laufwerke, Ressourcen Files, Speicherinhalte

Speicher für … Server (Daten-Center) Clients (Workgroups)Laufwerke Alle Nur Platten

Quelle: Fujitsu Siemens Computers

Page 38: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Speichernetze – die Qual der Wahl 41

günstigere Alternative zu einem SAN. Wer sich für welche Variante entscheidet, ist von vielen, vielleicht auch sehr individuellen Faktoren abhängig. David Hitz, einer der Grün-der und nun Executive Vice President of Engineering bei NetApp, äußerte sich offen in einem Interview: „NAS und SAN sind wie zwei Geschmacksrichtungen derselben Eis-creme. NAS ist Schokolade und SAN ist Erdbeere. Und alles, was ein Kunde wissen muss über die beiden Techniken, besteht nur darin, dass jederzeit beide Systeme für die Datenspeicherung einsetzbar sind. Welcher vernünftige Mensch würde sich daran stö-ren, dass der andere nicht Schokoladeneis, sondern lieber Erdbeereis mag.“ [7] Diese etwas flapsige Aussage kann man auch so interpretieren, dass die Unternehmen mit SAN und NAS zwei Speicherarchitekturen zur Auswahl haben, die sie je nach ihren Anforderungen individuell anpassen können. Berührungsängste muss keiner haben.

Seit einigen Jahren ist noch eine dritte Variante im Gespräch: iSCSI-Netze für Spei-cher (auch als IP-SAN bezeichnet) haben seit einem Jahr offenbar die längere Einstiegs-phase überwunden und beachtliche Verkaufszahlen erreicht. Der Reiz dieser Architektur besteht darin, dass sie die vorhandene TCP/IP-Infrastruktur auch für die Datenspeiche-rung nutzen kann: Damit entfällt die Installation und Pflege einer zweiten, nur für Spei-cher eingerichteten Infrastruktur, und die Administratoren können auf ihr vorhandenes IP-Wissen zurückgreifen. In der Praxis haben sich jedoch größere Hürden bei der Inte-gration der verschiedenen Aufgaben von LAN und iSCSI-Speichernetz erwiesen. Aller-dings ergeben sich mit der neuen Übertragungsgeschwindigkeit von 10 Gbit/sec für Ethernet neue Perspektiven, denn damit ist diese Technologie letztlich schneller als Fibre Channel mit derzeit noch 8 Gbit/sec. Den Kunden entstehen allerdings Extrakosten durch die notwendig werdende neue Verkabelung. Inzwischen geht man allgemein davon aus, dass eine iSCSI-Infrastruktur hauptsächlich für mittelständische Unterneh-men geeignet ist und dort ihren hauptsächlichen Platz gefunden hat.

Vergleich der 3 TopologienDAS NAS SAN

basiert auf Netzwerktechnologie Nein Ja JaAnzahl maximal unaterstützter

Geräte/HBA 15 ~ 126

Störungsanfälligkeit bei äußeren Einflüsen Ja (Kupfer) Ja (Kupfer) Nein (Glas)

Preisniveau Niedrig Hoch Sehr hochSkalierbarkeit Schlecht Relativ Sehr gut

Maximale Distanz zum Server 25 m ~ 10 kmBasisprotokoll SCSI Ethernet FCP

Quelle: Fujitsu Siemens Computers

Page 39: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Kapitel 5

Backup & Restore: eine ungeliebte Pflichtübung

Mit der Datensicherung verhält es sich wie mit vielen an sich notwendigen Auf-gaben, die aber letztendlich doch nur halbherzig oder gar nicht ausgeführt wer-den, weil sie zusätzliche Zeit oder mehr Geld erfordern. Ein Auto oder Fahrrad wird häufig solange gefahren, bis es nicht mehr geht – nach dem Motto „Es wird schon nichts passieren“. Und wenn dann etwas passiert, zum Beispiel die Brem-sen oder die Lenkung plötzlich versagen oder ein Reifen platzt, dann ist es meis-tens zu spät, um die Katastrophe aufzuhalten. In der modernen IT ist es ähnlich: „Eigentlich“ müssten von allen gespeicherten Informationen ununterbrochen Kopien angelegt werden und für Notfälle bereit gehalten werden. Doch Unter-nehmen, die sich diesem Ideal entsprechend verhalten, sind eher die Ausnahme. Denn alles, was nicht direkt für das tägliche Geschäft notwendig zu sein scheint oder sich nicht unmittelbar in klingende Münze umsetzen lässt, erhält nicht die Aufmerksamkeit, die der Sache eigentlich angemessen wäre. Unternehmens-IT und die Notwendigkeit der Datensicherung gibt es nun schon seit rund 40 Jahren, doch noch immer ergeben Befragungen und Untersuchungen eklatante Mängel in dieser Grunddisziplin. Das müsste nicht so sein: Effiziente und automatisierte Abhilfe zu schaffen ist kein großes Zauberkunststück.

Die Durchdringung von Gesellschaft und Wirtschaft mit IT hat erst begonnen. Immer mehr Bereiche des täglichen Lebens – von der Kommunikation über Infor-mationsbeschaffung bis zum Gesundheitswesen – werden durch IT-Systeme

beherrscht, und die Wirtschaftsprozesse sind heute in fast allen Branchen und in allen Firmengrößen von elektronischer Unterstützung abhängig. Diese Verflechtung von Geschäftsabläufen und elektronisch erzeugten und bearbeiteten Informationen macht es für Unternehmen aller Größenanforderungen zwingend erforderlich, sich um eine sichere Datenspeicherung zu kümmern.

Page 40: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

44 Kapitel 5

Grundlegende Backup-Begriffe

Backup: Reguläre Datensicherung, um im Falle eines Datenverlustes auf die Daten zugrei-

fen zu können.

Restore:• Wiederherstellen von Daten mittels Backups (unabhängig vom Medium) auf den

Zeitpunkt, zu dem das Backup ursprünglich erstellt wurde.• Ergebnis liefert ein physikalisch intaktes Volume/Filesystem.• Ergebnis liefert nicht notwendig Daten, mit denen Applikationen starten können

(insbesondere bei Datenbanken).• Basis für Recovery.

Recovery:• Restart-fähige Wiederherstellung von Daten und Systemen.• Bei Datenbanken nachfahren mit Hilfe von Redo-Logs auf möglichst aktuellen

Stand.• Rücksetzen auf letztmöglichen Konsistenzpunkt.

Unterscheidung im Backup-Volumen:• Ein Full Backup (komplette Datensicherung) wird wegen des zeitlichen Aufwands

nur in größeren Zeitabständen gezogen und bildet die Basis für nachfolgende Backups, die nur noch die inzwischen erfolgten Erweiterungen und Änderungen des ursprünglichen Datenbestandes sichern.

• Mit inkrementellem Backup bezeichnet man eine Sicherung derjenigen Daten, die seit der letzten Sicherung (egal ob inkrementell oder Vollbackup) neu entstanden oder verändert worden sind.

• Unter einem differentiellem Backup werden immer alle Änderungen nach dem letzten vollen Backup aufgezeichnet. Insofern benötigt ein differentielles Backup mehr Speicherplatz als ein inkrementelles. Weitere Spezifikationen finden sich je nach eingesetzter Backup-Software [1].

Page 41: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Backup & Restore: eine ungeliebte Pfl ichtübung 45

Backup- und Recovery-Strategien

Analysten von Gartner gehen davon aus, dass sich gegenwärtig ein fundamentaler Bedeutungswechsel bei der Datensicherung vollzieht [2]. Die wichtigsten Faktoren,

die eine Neuausrichtung von Backup- und Recovery-Strategien auslösen, lassen sich demnach wie folgt angeben:

Lokale Bedrohungen wie Feuer, extreme Wetterbedingungen und Ausfälle bei Hard-ware, Software, Netzwerken und Medien gefährden den Fortgang des Geschäfts (Busi-ness Continuity). Terroristische Angriffe und Bedrohungen stehen seit dem 11. Septem-ber 2001 in vielen Staaten auf der Tagesordnung. Stromausfälle in größerem Ausmass, wie sie in den letzten Jahren in vielen Ländern vorgekommen sind, können sich eben-falls auf die Datensicherung auswirken.

Im Zeitalter der Globalisierung und des Internets können sich die meisten Unterneh-men keine Unterbrechung und Auszeiten der Infrastruktur erlauben. Gleichzeitig wer-den die Zeitfenster für Backup und Recovery immer enger, da an verschiedenen Stand-orten rund um die Uhr gearbeitet wird.

Besonders überproportional wachsen die unstrukturierten Daten (Mails, Dateien), während die klassischen strukturierten Daten (Datenbanken, Geschäftsanwendungen) nur ein vergleichsweise bescheidenes Wachstum aufweisen. Allerdings werden nach Untersuchungen des IT-Branchenverbandes BITKOM etwa 50 Prozent der Daten nicht genutzt, aber mit gesichert. Das erfordert Maßnahmen, um diese ungenützten Daten auf weniger teure Stufen der Speicherhierarchie zu verschieben, beziehungsweise sie früher aus dem produktiven Zusammenhang herauszunehmen und zu archivieren.

In manchen Branchen wie dem Bank- oder Gesundheitswesen (Healthcare), dem Handel und dem Maschinen- oder Autobau waren effizient organisierte Datensiche-rungs-Prozesse schon immer entscheidend für den Marktauftritt der Unternehmen. Ein Datenverlust bei Banken, Versicherungen oder Fluggesellschaften zum Beispiel wird sich relativ schnell auf den Geschäftserfolg dieser Unternehmen auswirken. Deshalb muss die Datensicherung immer mit den jeweils modernsten Methoden durchgeführt und verbessert werden, um weiter konkurrenzfähig zu bleiben.

Und nicht zuletzt muss die IT-Infrastruktur gerüstet sein für die sich immer schneller verändernden geschäftlichen und technischen Anforderungen. Deshalb müssen die Backup- und Recovery-Prozesse langfristig und flexibel geplant sein und sie dürfen nicht zu Lasten der produktiven Abläufe der IT gehen.

Page 42: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

46 Kapitel 5

Wie kommt es zu Datenverlusten?

Direkter Anstoß für den Datenverlust sind neben den genannten äußeren Einwirkun-gen Softwarefehler, die die Datenintegrität beeinträchtigen oder gar ganze Systeme

zum Absturz bringen können, sowie verschiedene Hardware-Fehler, die von den Netz-teilen über Prozessoren [3], über Festplatten [4] bis zu weiteren Komponenten und selbst redundanten (doppelt oder mehrfach vorgehaltenen) Bauteilen wie Festplatten-Arrays reichen können. Hinzu kommen Anwender- und Bedienfehler, die selbst geübten Administratoren unterlaufen können, wobei hier vieles unter einer dichten Decke des Schweigens verschwindet. Welche IT-Abteilung und welches Unternehmen gibt schon gern zu, dass sie etwas falsch gemacht haben?

Jenseits von den drohenden Katastrophen sind es häufig gerade diese technischen Fehler im IT-Alltag oder schlicht das Auslaufen der Lebensdauer der eingesetzten Kom-ponenten und Medien, deren plötzliches Ende auch den Tod der auf ihnen abgelegten Daten bedeuten kann. Eine eigene, in den letzten Jahren stark zentralisierte Branche bemüht sich um die Wiederbelebung von Datenspeichern verschiedener Art [5].

Um die Haltbarkeit von Festplatten anzugeben, werden die Belastbarkeit und die zu erwartende Lebensdauer in dem Begriff MTBF (Mean Time Between Failure) ausge-drückt: Gemeint ist damit ein hochgerechneter Wert über den wahrscheinlichen Ausfall eines Laufwerks. Manche Hersteller geben Werte von bis zu einer Million Stunden bei

Menschliches FehlverhaltenHardware-

oderSystemfehler

Software- oder Programmierfehler

Computer-VirenNaturkatastrophen

Quelle: Fujitsu Siemens Computers

32 %

44 %

14 %

7%3 %

Software-Fehler und Viren führen verhältnismäßig selten zu Datenverlust. Die meisten Fehler liegen auf der Hardware- oder Systemseite, gefolgt von menschlichem Fehlverhalten.

Page 43: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Backup & Restore: eine ungeliebte Pfl ichtübung 47

Highend-Laufwerken an, was eine biblische Lebensdauer von 114 Jahren (= eine Million Stunden) bedeuten würde. Die zugrunde liegenden Tests gehen von einer sehr hohen Zahl parallel laufender Platten aus, auf deren Basis mögliche Ausfallraten berechnet werden. Die unterstellten optimalen Bedingungen sind aber in der Praxis eher die Aus-nahme, so dass die realen Ausfallraten sehr hoch sein können. Redundanz durch Plat-tensysteme im Array-Verbund (siehe Kapitel 3) und ausgefeilte Backup-Mechanismen müssen dem vorbeugen. Da der Begriff MTBF aufgrund seiner Ungenauigkeit immer wieder in die Kritik geraten ist, werden heute weitere Maßeinheiten herangezogen wie zum Beispiel die AFR (Annualized Failure Rate). Sie wird wie die MTBF erstellt, gibt aber gleich die zu erwartende jährliche Ausfallrate in Prozent der installierten Plattenmenge an: Wenn von 1.000 Platten 8,7 im Jahr ausfallen, beträgt die jährliche Ausfallrate oder AFR 0,87 Prozent [6].

Die durchschnittliche Lebensdauer von Festplatten beträgt heute drei bis fünf Jahre, im Einzelfall auch länger. Unternehmen sollten sich nur dann auf längere Fristen verlas-sen, wenn sie automatische Fehlerkontrollen inklusive einer direkten Benachrichtigung an den Herstellerservice einsetzen, der je nach vereinbartem Service Level Agreement (SLA) für einen Austausch noch vor dem endgültigen Ausfall der Platte sorgt. Platten werden bei steigenden Kapazitäten immer preiswerter (im Sommer 2008 kündigte Seagate eine 1,5-Terabyte-Platte an), während die ebenfalls noch im Backup-Bereich eingesetzten Magnetbänder leistungsfähiger werden: So ist ihr Durchsatz inzwischen auf über 500 MByte/sec angestiegen, während die Kapazitäten ebenfalls deutlich zunehmen und nun bei 1 Terabyte (LTO 4) liegen. Die Lebensdauer von Magnetbändern wird bei DLT/SDLT und LTO mit bis zu 30 Jahren angegeben und liegt damit deutlich über der von Festplatten und Solid State Disks [7].

Backup-Architekturen / Speicherorte für Backup-Daten

Als Konsequenz aus dieser Entwicklung des Preis-/Leistungsverhältnisses ergibt sich für die Backup-Architektur, dass Tape immer weiter ans Ende der Tiered-Storage-

Kette hin zu Archivierung rückt. Es hat sich sogar ein letztlich sinnloser Meinungsstreit entwickelt, was die bessere Lösung für Backup sei – Disk oder Tape. Dieser Streit ist deshalb sinnlos, weil es auf die besonderen Anforderungen jedes Unternehmens ankommt. Ist der Anteil der Daten sehr hoch, die über längere Zeit in einem performan-tem Zugriff bleiben müssen, empfehlen sich besondere Formen eines Disk-Backups, bevor die Daten schließlich auf Band verlagert werden.

Page 44: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

48 Kapitel 5

Für das Backup gibt es verschiedene Formen, wie die physikalische Datensicherung erfolgen kann:

• Backup to Disk / Disk Libraries: Eine Speicherung auf Disks ist schneller als Schreibzugriffe auf Tapes. Die Daten wer-den im Regelfall auf preisgünstigen SATA-Platten und nicht auf kostenintensiven Fibre Channel-Platten gespeichert.

• Backup to Tape / Tape Libraries: Eine Datensicherung auf Tapes ist eine kostengünstige Möglichkeit, Daten vorzuhal-ten. Tapes haben gegenüber Disks den Vorteil, dass die Lebensdauer länger ist. Aller-dings ist der Zugriff langsamer. [8]

• Disk to Disk to Tape (D2D2T): Diese Variante berücksichtigt verschiedene Anforderungen, indem neben dem kurz-fristigen Backup auf Disk als nächste Stufe auch die Datensicherung auf Magnet-bändern Berücksichtigung findet. Werden die zwei Plattenstufen innerhalb eines Speichersystems eingesetzt, das mehrere teure und billigere Festplatten wie Fibre Channel oder SAS auf der primären Ebene und SATA auf der sekundären Ebene ver-bindet, lassen sich Preisvorteile erzielen, da nur ein Array angeschafft werden muss. Letztlich wird nur der Zeitpunkt des Backups auf Tape hinausgezögert.

• Virtuelle Tape Libraries (VTL): VTLs stellen die Königsdisziplin dar. Hier werden die schnellen Zugriffszeiten von Platten mit günstigen Tapes verbunden. Eine Virtual-Tape-Library (VTL) ist ein Spei-cher auf Basis eines Disk Arrays, der nach Außen hin eine Tape Library emuliert. Dadurch ist es möglich, Backup-To-Disk-Konzepte in bestehende Datensicherungs-umgebungen, die in der Regel auf Bandlaufwerken basieren, einzubinden. Eine VTL stellt sich für angeschlossene Computer wie eine oder mehrere Tape Libraries dar. Die Daten werden zunächst auf Disk zwischengespeichert, um das Backup-Fenster gering zu halten. Im Nachgang erfolgt die Datensicherung auf die günstigeren Tapes.

Um Service Level Agreements (SLAs) für Backups festzulegen, benützt man heute häufig die folgenden Begriffe:

• RPO (Recovery Point Objective) Mit dem Begriff RPO (Recovery Point Objective) wird umschrieben: Wie viel Daten-verlust kann sich das Unternehmen maximal leisten? Daran orientiert sich der Abstand zwischen den einzelnen Backups. Für Banken folgt daraus zum Beispiel eine Null-Toleranz gegenüber Ausfällen, während andere Branchen dies besser verkraften können.

Page 45: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Backup & Restore: eine ungeliebte Pfl ichtübung 49

• RTO (Recovery Time Objective) RTO dreht sich um die Frage: Wie lange dauert es, bis die verlorenen Daten wieder-hergestellt beziehungsweise in das System zurückgespielt worden sind? Der Spiel-raum kann durch gesetzliche oder institutionelle Vorgaben eingeschränkt sein. Als Beispiel sei hier das Gesundheitswesen genannt, in dem der Zugriff auf elektronische Patientendaten gerade in Notfällen zu 100 Prozent garantiert sein muss.

• Continous Data Protection (CDP) CDP bedeutet, dass jede Änderung an den Daten gleichzeitig auch im Backup vorge-nommen wird. Mit CDP wird die RPO (Recovery Point Objective) auf Null gesetzt, da jede Änderung sofort einen Speichervorgang anstößt. Insofern ist CDP die Verwirkli-chung des Ideals von Backup: Alles ist sofort und ganz gesichert.

Erweiterte Backup-Möglichkeiten

Da die Backup-Fenster immer kleiner werden, gibt es verschiedene technische Ansätze, um diesen Anforderungen gerecht zu werden.

Mit• Point-in Time oder• Snapshots

kann ein Backup in einem relativ kleinen Zeitfenster erfolgen. Dabei werden die Daten im laufenden Betrieb zu bestimmten Zeitpunkten als Kopie erstellt, um von dieser

RPO RTO

Wochen Tage Stunden Minuten Sek Sek Minuten Stunden Tage Wochen

Die Lückewird enger

RPO = Recovery Point Objective, RTO = Recovery Time ObjectiveRPO = Datenverlust RTO = Ausfallzeit

Katastrophe

Quelle: Fujitsu Siemens Computers

RPO = Die Menge an Daten, die es nach einem Datenausfall wiederherzustellen gilt, um die Geschäfte wieder normal ausführen zu können (gemessen in Zeit). RTO = Die maximale Recovery-Zeit, die man sich erlauben kann, bis die Geschäfte normal weitergeführt werden müssen.

Page 46: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

50 Kapitel 5

Kopie – unabhängig vom Produktivbetrieb – das Backup zu fahren. Allerdings wird ein Snapshot ebenfalls auf dem Primärspeicher abgelegt – fällt dieser aus, ist auch diese Form der Datensicherung nicht mehr wirksam.

Die gesicherte Datenmenge kann durch Komprimierungsfaktoren verkleinert wer-den, was Platz und Kosten spart. Neuere Verfahren wie Single Instance und Data Dedu-plication durchsuchen direkt die zu speichernde Datenmenge und sortieren Doppel- oder Mehrfachbestände während des Backup-Prozesses aus. Solche Funde werden durch Pointer ersetzt, was Einsparungsquoten von weit über 50 Prozent bringen kann. Ein Pointer stellt nur einen Verweis auf die ursprünglich gespeicherte Datei dar, sodass nicht doppelt oder mehrfach gespeichert werden muss.

• Single Instance Storage Mit Single Instance Storage wird umschrieben, dass doppelte Dateien erkannt und nur ein einziges Mal gespeichert werden.

• Data Deduplication Wird bereits zu den großen Erfindungen in der Speichertechnologie gezählt [9]. Hier werden Redundanzen nicht nur auf Dateiebene erkannt, es erfolgt eine Datendedu-plizierung auf Segmentebene. Dies kann über zwei Wege geschehen [10]:

– Am Target: Die Deduplizierung erfolgt am Speichermedium selbst, was hilft, das zu spei-chernde Datenvolumen gering zu halten. Damit verlängert sich allerdings der gesamte Speichervorgang.

– An der Source: Hier gibt es neben dem geringeren Datenvolumen den Vorteil, dass die verringerte Datenmenge schneller übertragen werden kann. Dies ist bei Zweigstellen rele-vant, da hier teilweise nur analoge Datenleitungen zur Verfügung stehen.

Backup versus Archivierung

Oft wird das Archivieren von Daten gegenüber dem Backup durch den Parameter Zeit abgegrenzt – dauerhaft versus vorübergehend. Das mag in manchen Fällen zutref-

fen, weil die Backup-Bänder von Wochensicherungen vielleicht in den Datenbunker wandern und das Etikett „Archiv“ angeklebt bekommen. Dennoch ist eine solche Unter-scheidung – und erst recht die sie begleitende Praxis – ungenügend, da beide Fälle nicht konträrer sein könnten. Beim Backup geht es um den Schutz vor Datenverlust, während sich die Archivierung um die langfristige Aufbewahrung kümmert, um zum Beispiel gesetzlichen Anforderungen zu entsprechen. Ein Backup wird normalerweise 1:1 zum

Page 47: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Backup & Restore: eine ungeliebte Pfl ichtübung 51

Restore genutzt, in einem Archiv sollte man Daten relativ einfach und schnell finden können, ohne ein Restore durchführen zu müssen.

Die auf Backup-Medien gespielten Kopien der ursprünglichen Daten hebt man in der Regel nur für einen kürzeren Zeitraum auf und ersetzt sie permanent durch aktuellere, schreibnahe Kopien. Da sie eigentlich nicht gebraucht werden sollen, ergeben sich lediglich spezifische Anforderungen wie Zeitnähe oder Vollständigkeit. In einem Katas-trophenfall sind gewöhnlich alle Informationen vor dem ältesten noch existierenden und nach dem letzten Backup unwiederbringlich verloren.

Lange muss man diese Datensicherungen aber ebenfalls nicht aufheben, da man die Kopien ja nur im Katastrophenfall braucht. Es wird selten passieren, dass man eine Datensicherung zurückspielen muss, die ein paar Monate alt ist.

Ganz anders verhält es sich bei der Archivierung. Bei diesem Verfahren der Aufbe-wahrung, wenn Informationen aus dem produktiven Prozess ausscheiden, geht es darum, Daten auf einem eigenen Medium für eine spätere Benutzung aufzubereiten und zur Verfügung zu stellen. Archivierungsmedien legt man nicht wie Backup-Bänder zur Seite, weil man ihren Gebrauch nur im äußersten Fall in Erwägung zieht. Wer archi-viert, hat es auf Wiederbenutzung abgesehen – zu irgendeinem späteren Zeitpunkt.

FSC Business Continuity Model RequirementsDatenklasse 1 2 3 4

Beschreibung Mission Critical Business Critical Business Important

Non Critical

Verfügbarkeit > 99.99 % 99.9 % 99 % 97 %Ungeplante Ausfallzeit < 1 Std./Jahr < 10 Std./Jahr < 100 Std./Jahr k.A

Geplante Ausfallzeit < 1 Std./Monat < 2 Std./Monat < 8 Std./Monat periodisch

RTO (Ausfallzeit) < 15 Min. 1 Stunde 8 Stunden 24 Stunden

RPO (Datenverlust) < 1 Stunde 12 Stunden 48 Stunden 96 Stunden

Zugriffszeit zum Archiv Sekunden Sekunden < 4 Stunden 24 – 48 Stunden

Backup-Erfolg in % 97 % 95 % 90 % 90 %

Antwortzeit bei Offline-Import < 30 Min. < 45 Min. < 2 Stunden k. A.

Quelle: Fujitsu Siemens Computers

Page 48: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

52 Kapitel 5

Archivierung kann aus freien Stücken geschehen – die Bandbreite reicht von vor-sorglicher Aufbewahrung für noch nicht absehbare Zwecke bis hin zur Sammelwut –, oder weil Gesetzgeber, Banken oder sonstige Institutionen verpflichtende Vorschriften erlassen haben oder die Aufbewahrung zumindest anraten. Wer die archivierten Daten später nie mehr benützen will und auch keinen Vorschriften zur eventuellen Wiedervor-lage folgen muss, sollte sich auch ein Löschen überlegen – was Ressourcen, Platz und Kosten spart.

Page 49: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Kapitel 6

Storage Management – komplexe Speichernetze beherrschbar machen

Eigentlich sollte man denken, dass nach über 40 Jahren Server- und Storage-Technologie die Beherrschung und der tägliche Umgang mit dieser Infrastruktur und den auf ihr laufenden spezifischen Applikationen eine leichte Übung sein sollten. Soweit die Theorie. Fakt ist aber, dass das Datenwachstum ungebrochen und die Speicherlandschaft immer komplexer und umfangreicher geworden ist. Außerdem bildeten sich durch zahlreiche Firmenübernahmen bei den Anwendern diverse IT-Inseln mit unterschiedlichen Betriebssystemen, Geräteparks und Anwendungen heraus. Inzwischen gibt es darüber hinaus mindestens vier große Storage-Architekturen, die jeweils einen unterschiedlichen Wissensaufwand erfordern: DAS (Direct Attached Storage), SAN (Storage Area Network), NAS (Net-work Attached Storage) und IP-SAN (iSCSI), wobei die letzteren zwei auf dem TCP/IP-Protokoll basieren. Am Horizont zeichnet sich bereits die nächste, nur teil-weise mit den bisherigen Installationen kompatible Speicherarchitektur ab: Fibre Channel over Ethernet (FCoE). Damit könnte es ein Zurück zu einer einheitlichen Speicherwelt geben. Das Management wird dadurch aber erst einmal nicht leich-ter, eher im Gegenteil. Bisher bietet jeder Hersteller eigene Management-Tools für seine Produkte an, denen es mit der Ausnahme von SMI-S generell an Stan-dards mangelt.

Um dem Durcheinander bei der Software für Speichermanagement zu entkom-men, ist es vielleicht hilfreich, sich zunächst an die vom Hersteller mitgelieferten Tools zu halten. Integrierte Konfigurationswerkzeuge, Webtools oder Kompo-

nentenmanager erleichtern den Einstieg, ersetzen aber nicht die Planung der Gesamtar-chitektur und ihrer Teilelemente. Die großen Suiten für Storage-Management und die Verwaltung der kompletten IT-Infrastruktur, wie sie einige Hersteller anbieten, setzen sehr viel Erfahrung voraus und sind auf Grund ihrer Komplexität nur etwas für größere Unternehmen.

Die Planung und Überwachung der Speicherinstallationen sollte von Beginn an sys-tematisch angelegt sein, was eine kontinuierliche Auflistung aller Phasen, Schritte und

Page 50: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

54 Kapitel 6

Änderungen einschließt. Dies ist schon deshalb von Nöten, weil sonst spätestens bei einem Mitarbeiterwechsel das Chaos ausbrechen würde. Auf der Basis von ITIL, der IT Infrastructure Library, stellen formalisierte Anforderungen und Prozesse eine wesentli-che Erleichterung bei der Protokollierung dieser Prozesse dar. Sie helfen auch bei den Gesprächen zwischen Hersteller und Kunde oder auch bei Firmenzusammenschlüssen, wenn unterschiedliche IT-Welten miteinander verbunden werden müssen. Mit ITIL gibt es eine Reihe von Publikationen, die Unternehmen bei der Strukturierung ihrer IT- und Geschäftsprozesse helfen wollen.

So lässt sich mit Change Management, dem kontinuierlichen Verwalten von Ände-rungen, ein Verfahren beschreiben, das sich von einfachen, unregelmäßig geführten Excel-Tabellen löst und sich nach ITIL und den vom jeweiligen Hersteller mitgelieferten Management-Tools richtet. Damit wird möglichst von Beginn an das Entstehen eines Speicherwildwuchses vermieden, der aus unterschiedlichsten Produkten besteht, die nur notdürftig miteinander verbunden sind. Fehler und Ausfälle sind in einem solchen Umfeld programmiert und bedeuten oft genug Nach- und Nachtarbeit der Mitarbeiter. Wird dagegen auf Standardlösungen oder „Storage out of the Box“ gesetzt, gestaltet sich das Management auf der Grundlage von voreingestellter Software einfacher.

Mittelständische Unternehmen haben weniger finanzielle Ressourcen zur Verfügung, was sie zu schnelleren, nicht ausgetesteten Implementationen und längerer Nutzungs-dauer – auch über die Abschreibungsfristen hinaus – verleitet. Nicht zufällig entschei-den sich gerade diese Firmen für Technologien, die ihnen vertraut sind oder es zumin-dest erscheinen: Bei mittelständischen Unternehmen ist noch heute DAS verbreitet, und iSCSI hat sich wegen der Verwandtschaft mit der LAN-Architektur gerade hier am meisten durchgesetzt. Solange es sich um eingespielte Lösungen handelt, ist dieses vor-sichtige Verhalten sicher kein Fehler, es macht die Unternehmen aber weniger flexibel als ihre größeren Konkurrenten. Diese leisten sich besser ausgebildete Mitarbeiter und längere Planungsphasen, wodurch sie in der Lage sind, neue und effektivere Technolo-gien auszuprobieren und anschließend produktiv einzusetzen. Dies gilt in besonderem Maße für das Informationsmanagement, das Investitionsaufwand und Know-how erfordert. Für den Mittelstand sind die meisten Tools auf diesem Gebiet einfach nicht erschwinglich. Und ihre Anschaffung würde sich auch in Relation zu den verwalteten Datenmengen kaum rechnen.

Das Management von Daten geschieht häufig in ebenso ungeplanter, letztlich chao-tischer Manier. Weil man bereits eine Reihe von Windows-Lizenzen besitzt und noch einen ungenützten Server herumstehen hat, werden unstrukturierte Daten wie Office-Dokumente dort mehr zufällig abgelegt – mit allen unschönen Folgen für die Anord-nung, Indexierung oder Suchmöglichkeiten solcher Dokumente. Größere Unternehmen sind auch hier einen Schritt weiter und stellen dedizierte Server in einer SAN-Umge-bung zur Verfügung. Da man schon ein SAN eingerichtet hat, werden womöglich dann Daten hier untergebracht, die man auch kostengünstiger auf anderen Speicherstufen

Page 51: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Storage Management – komplexe Speichernetze beherrschbar machen 55

mit etwas geringerer Performance ablegen könnte – Chaos auf höherer Ebene. Bemerkt die IT-Abteilung das Durcheinander, wird typischerweise noch eins draufgesattelt: Man schafft jetzt womöglich zusätzliche NAS-Filer an, um die unstrukturierten Daten „adäquat“ abspeichern zu können. Damit stellt sich dann irgendwann die Frage nach einer Zusammenführung oder Integration der verschiedenen Speicherinseln, bei denen

Begriffe zum Speicher-Management

(1) Storage Resource Management (SRM): „Ernsthafte SRM-Initiativen kamen erst gegen Ende der 90er Jahre auf. Es handelte sich um einen Markt für Unix-, Win-dows- und später dann auch Linux-Plattformen, der ein paar Jahre große Erwartun-gen weckte, aber sich in der letzten Zeit eher verflüchtigte. Es gibt mehrere Gründe, warum von den mehr als 20 SRM-Anbietern nicht viel übrig geblieben ist:1. Den SRM-Produkten gelang es erst allmählich, sich von einem reaktiven, nur

berichtenden zu einem proaktiven Tool zu entwickeln, das Entscheidungen und Aktionen auf der Basis anwender-definierter Policies vornehmen konnte.

2. SRM-Produkte waren homogen orientiert, sodass sie bei der Unterstützung hete-rogener Umgebungen versagen mussten.

3. SRM-Produkte befassten sich nur mit der Allokation von Plattenplatz. Um Perfor-mance-Probleme kümmerten sie sich dagegen nicht. Die Anwender wurden bom-bardiert mit Alarmen und Entscheidungen, die manuell umgesetzt werden muss-ten.

Die heutige Realität besteht darin, dass sich die Unternehmen um die Integration verschiedener Tools kümmern müssen, die teils von Herstellern stammen, teils hand-gestrickt sind. Die Storage-Abteilungen müssen davon ausgehen, dass ihre Speicher-infrastruktur äußerst heterogen ist und dass sie deshalb zunächst die Anzahl der verschiedenen Hersteller und Storage-Pools verringern müssen. Nur so kommen sie zu einer einfacheren Verwaltung ihrer Storage-Ressourcen.“

(Fred Moore, Horison Information Strategies)

(2) Information Management„Information Lifecycle Management (ILM) kann als die Methode verstanden werden, einen allgemeinen Blick auf die Informationsressourcen zu werfen und sie zu kon-trollieren. Information Management Services umfassen die Prozesse, wie Informati-onen bei ihrem Durchgang durch die verschiedenen Lebensstadien verwaltet werden können. Diese Services kümmern sich auch um die Dateninhalte. Beispiele hierfür sind Record und Content Management.“ (SNIA Dictionary)

Page 52: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

56 Kapitel 6

mal die Blockebene (SAN) und mal die File-Ebene (NAS) dominiert. Auch dafür gibt es eigene Lösungen, die allerdings weitere Investitionen erfordern und letztlich eine zusätzliche Komplexitätsstufe zu der Speicherarchitektur hinzufügen.

In der Folge wird angesichts solcher Strukturen das Speichermanagement erschwert, da Probleme, Ausfälle, Hardware- und Software-Fehler nicht sofort identifiziert werden können. Gegenmaßnahmen werden in solchen Situationen zu spät ergriffen. Monito-ring, Reporting und konstante Fehleranalyse liessen sich jedoch mit Software-Unter-stützung durchführen, wobei von Herstellerseite in der Regel solche Tools mitgeliefert werden. Werden sehr viele unterschiedliche Komponenten eingesetzt, steht das Storage-Management oft vor dem Problem, diese Heterogenität in den Griff zu bekommen.

Als Teilbereich des Managements sind hier auch eine ausreichende Speicherversor-gung für die Anwender, Abteilungen und Applikationen sowie das Provisioning zu nen-nen. Unter Provisioning ist die Bereitstellung einschließlich der rechtzeitigen Anschaf-fung von Speicherplatz zu verstehen: Es müssen genügend Storage Arrays und Fest-platten vorhanden sein, um alle Anforderungen zu erfüllen. Wenn zum Beispiel saiso-nale Spitzenzeiten – wie beim Weihnachtsgeschäft – berücksichtigt werden müssen,

Die Storage-Taxonomie von IDC

DataDataProtectionProtection

andandRecoveryRecovery

StorageStorageSoftwareSoftware

Storage Storage ServicesServices

StorageStorage

Storage Storage SystemsSystems

StorageStorageMechanismsMechanisms

Archive and Archive and HSMHSM

StorageStorageInfraInfra--

structurestructure

Storage Storage HardwareHardware

Tape LibrariesTape Libraries

Disk SystemsDisk Systems

Optical Optical JukeboxesJukeboxes

Tape DrivesTape Drives

HDDsHDDs

Optical DrivesOptical Drives

Removable Removable MediaMedia

StorageStorageManagementManagement

StorageStorageReplicationReplication

ImplementationImplementation

ConsultingConsulting

ManagementManagement

SupportSupport

StorageStorageDeviceDevice

ManagementManagement

FileFileSystemSystem

OtherOtherStorageStorage

SWSW

Storage Storage InfrastructureInfrastructure

Quelle: IDC

Nach Ansicht von IDC lässt sich Storage in drei Hauptgruppen unterteilen, denen verschiedene Bereiche zugeordnet sind. Storage Management ist nur ein Teil neben vielen anderen.

Page 53: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Storage Management – komplexe Speichernetze beherrschbar machen 57

bedeutet das zugleich eine Unterauslastung der Systeme während der übrigen Zeit, die ähnlich wie bei Servern bis unter 40 Prozent der eigentlichen Kapazität gehen kann. Um dieses Problem zu lösen, wurde die Technologie des Thin Provisioning entwickelt. Damit sind Verfahren gemeint, die eine flexible, wechselnde Zuordnung von Speicherplatz für verschiedene Anwendungen vorsehen: Je nach Bedarf werden Kapazitäten zugewiesen und wieder weggenommen [1].

Mit „Stranded Storage“ bezeichnet man Speicherplatz, der ursprünglich für bestimmte Anwendungen oder User bereit gestellt wurde, aber von diesen nicht genutzt wird. Das Ziel von Thin Provisioning ist primär, „gestrandete Speicherkapazitäten“ wieder allge-mein nutzbar zu machen. Thin Provisioning setzt auch auf Virtualisierung [2], mit der unterschiedliche physikalische Festplatten und Disk Arrays zu logischen oder virtuellen Einheiten zusammengefasst werden. Dies ermöglicht eine sehr genaue Zuweisung von Speicherplatz, da man sich nicht mehr an den physikalischen Ober- und Untergrenzen von Platten orientieren muss.

Um sich von Schuldzuweisungen freizumachen und auf den jeweils anderen Her-steller zu verweisen, der dem Anwender eine bestimmte SAN-, NAS- oder iSCSI-Infra-struktur aufgezwungen habe, sollte sich die IT-Abteilung ihre Unabhängigkeit bewah-ren. So hat sich ein Fujitsu-Siemens-Kunde für einen eigenen Weg entschieden und bewusst separate Insellösungen für unterschiedliche Architekturen eingerichtet: ein SAN für Mainframes inklusive Spiegelung zu einem zweiten (Ausfall-)Rechenzentrum, eine Virtualisierungslösung für SQL- und Mail-Server auf Basis von Windows und Linux und schließlich ein NAS für FlexFrame for SAP mit Fujitsu-Siemens-Servern und NetApp-Storage. Alle drei Bereiche werden selbstständig gemanagt, wobei der erforderliche Mehraufwand garantiert, dass in einem Fehlerfall nicht automatisch die anderen Berei-che tangiert werden. Mit anderen Worten: Die oft verteufelten Silo-Lösungen können ähnlich wie DAS-Systeme bei einem bestimmten Kundenszenario durchaus Sinn machen.

Dieser Ansatz lässt sich auch auf den Software-Einsatz übertragen: Häufig werden zu viele Tools aus verschiedenen Quellen verwendet, anstatt sich auf einen Anbieter zu verlassen. Während sich die Storage-Systeme wie SAN, NAS oder IP-SAN durch die mit-gelieferte Software einrichten lassen, sollte für die anschließende Verwaltung ein zen-trales Tool verwendet werden, das ein End-to-End-Management ermöglicht. Heute bie-ten fast alle Speicherhersteller entsprechende Programme an.

Heterogene Speichernetze – einheitliches Management

In einem SAN (Storage Area Network) auf Fibre Channel-Basis (FC) sind die wesentli-chen Komponenten im Netz FC-Switches, deren Protokolldienste einfach zu konfigu-

Page 54: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

58 Kapitel 6

rieren sind und nur wenige Fehlerquellen aufweisen. Den zweiten Bereich des SAN bil-den die Speichersysteme, die meistens über die mitgelieferten Verwaltungstools beob-achtet und gesteuert werden können. Problematisch sind in vielen SAN-Umgebungen allerdings die Kenntnisse und Erfahrungen der Netzwerkadministratoren, die aus dem klassischen Local Area Network (LAN) kommen und sich zu wenig in der Thematik der Datenspeicherung auskennen.

Die alternative Netzform NAS (Network Attached Storage) wurde mit dem Ziel ent-wickelt, klassische Fileserver und Speichersysteme in einem Paket zusammen anzubie-ten. Eine Software für das Management ist ebenfalls integriert, die sich vor allem um den Transport der Dateien von den Servern zu den Speichersystemen kümmert. In so einer Umgebung wird häufig weniger Wert auf die Performance des Datenzugriffs und der verwendeten Festplatten gelegt. Werden die NAS-Server mit leistungsfähigen FC-Speichersystemen eines SAN verbunden, erhöht sich wieder der Verwaltungsaufwand.

Die dritte Variante sind IP-SANs, heute meist als iSCSI-Speichernetze im Einsatz. Sol-che Netze, die auf der bekannten LAN-Technologie aufbauen, finden nach einer länge-ren Anlaufzeit vermehrt Anhänger, vor allem bei mittelgroßen Firmen, aber auch bei Unternehmen mit mehr als 1.000 Mitarbeitern, die global operieren. Sicher haben die IT-Abteilungen auf Grund der jahrelangen Arbeit mit den überall im Einsatz befindli-chen TCP/IP-Netzen einen Fundus an entsprechenden Erfahrungen, aber es wäre ver-hängnisvoll zu glauben, man könne die Speicherdaten einfach zusätzlich auf den vor-handenen Netzpfaden hin- und herschieben: Für ein funktionierendes IP-SAN muss eine eigene IP-Infrastruktur aufgebaut werden, an die dann Speichersysteme ange-hängt werden [3].

Das eigentliche Storage-Management liegt oberhalb dieser Übertragungstechniken und besteht in einer ersten Stufe aus den mitgelieferten Tools der Hersteller, auch als Elementenmanager bezeichnet. Für die leichtere Bedienung wird ein Webserver instal-liert, sodass die Administratoren Zugang zu einem Browser haben. Komplexere Netze werden über Kontrolldienste überwacht und gesteuert, die viele Speicherkomponenten wie HBAs (Host Bus Adapter), Switches und die Speichersysteme über Schnittstellen zusammenfassen. Beispiele hierfür sind Control Center von EMC, Brightstor SRM von CA oder Sanpoint Control von Symantec.

In der Vergangenheit war es häufig so, dass sich Speichergeräte verschiedener Her-steller nicht mit einander im Netz „verstanden“, da sie entweder nicht über geeignete Schnittstellen (APIs = Application Programming Interface) verfügten oder diese nicht mit denen der anderen Hersteller kompatibel waren. Um die Speichernetze für die Unternehmen anwenderfreundlicher zu machen, organisierte die SNIA (Storage Net-working Industry Association), der Verband fast aller Speicherhersteller, eine sogenannte Management-Initiative, um einen Standard für alle Geräte zu schaffen. In jahrelanger Arbeit legten die SNIA-Gremien schließlich einen Vorschlag zur Standardisierung vor, die Storage Management Initiative Specification (SMI-S). Die Hersteller arbeiten nun

Page 55: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Storage Management – komplexe Speichernetze beherrschbar machen 59

enger zusammen, tauschen ihre Schnittstellen aus und sorgen für eine gegenseitige Lizensierung. Oft erhalten nun die in der SMI-S vorgesehenen Kommunikationsschnitt-stellen Vorrang vor den proprietären APIs.

Laut Frank Bunn, SNIA Europe und Speicher-Spezialist bei Symantec, hat SMI-S einen wesentlichen langfristigen Einfluss auf das Speichermanagement: „SMI-S kommt ja nicht über Nacht. Das ist ein laufender Prozess, der bereits 2002 begann. Was SMI-S schafft, ist eine bessere Interoperabilität. Es ermöglicht ein einheitliches Management verschiedener Produkte und liefert einen konsistenten Blick auf die SAN- und NAS-Umgebung. Die Anwender sind oft schon deshalb ganz begeistert, weil sie mit SMI-S endlich ihre gesamte Speicherumgebung sehen können. Die Kunden wissen oft gar nicht, was sie noch alles an Storage-Equipment haben. Aber das ist nur ein erster Schritt. In einem zweiten Schritt lässt sich das Management von Speichersystemen wesentlich erleichtern.“

Für Bunn wurde das Thema SAN bisher stark von größeren Unternehmen besetzt. Kleine und mittlere Unternehmen waren dagegen eher skeptisch, nach dem Motto „Das ist zu komplex, zu teuer und funktioniert ja sowieso nicht“. Bunn: „Und sie hatten ja auch nicht ganz Unrecht. Durch SMI-S wird das SAN-Management aber wesentlich einfacher. Dadurch können auch Partner Speichernetze implementieren und betreuen, die nicht zu den absoluten SAN-Spezialisten gehören.“ In den inzwischen vorliegenden Versionen 1.1 und 1.2 von SMI-S werden außer Fibre Channel-SAN auch NAS und iSCSI berücksichtigt, was das Umfeld für Integratoren sehr erweitert.

Trotz aller jahrelangen Anstrengungen ist der Standardisierungsprozess allerdings noch nicht abgeschlossen. Nicht alle Hersteller implementieren bei ihren Geräten ange-passte Schnittstellen, die sich mit denen anderer Anbieter vertragen. Der gegenseitige Lizensierungsprozess zieht sich oft länger als sachlich geboten hin. Außerdem sind ver-schiedene Versionen von SMI-S nebeneinander im Einsatz. Diese Umstände führen dazu, dass die Akzeptanz bei den Anwendern noch nicht besonders groß ist.

Page 56: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Kapitel 7

Virtualisierung – bei Speicherthemen existiert Nachholbedarf

Alle Welt spricht von Virtualisierung. Dieser Technologie werden inzwischen wahre Wunderwerke nachgesagt, und die Produktankündigungen auf diesem Feld sind kaum noch zu überblicken. Doch viele Anwender verhalten sich noch zurückhaltend bei dem Einsatz von Virtualisierung im eigenen Unternehmen. Die Marktforscher von IDC haben 2008 in einer Untersuchung festgestellt, dass erst 33 Prozent der Unternehmen in Westeuropa Server-Virtualisierung von VMware oder Citrix XenSource eingeführt haben, 67 Prozent machen noch nichts in dieser Richtung. Im Speicherbereich liegen diese Prozentzahlen noch einmal deutlich niedriger, nur 15 bis 20 Prozent befassen sich schon mit Virtualisierung. Dabei ist die Auslastung der Speichersysteme im Normalfall ebenfalls sehr gering. Mit vir-tuellen Systemen, bei denen mehrere Geräte oder Hunderte von Festplatten zu logischen Einheiten verknüpft werden, lässt sich der Auslastungsgrad sehr schnell erhöhen. Das Aufholpotenzial ist sehr groß, und bei den Kosten könnte sehr viel eingespart werden.

Unternehmen halten sich laut IDC beim Einsatz von Virtualisierung in ihrer Sto-rage-Umgebung zurück, da sie dies nicht für zwingend erforderlich erachten. Storage wird oft als unumgängliche Einrichtung für Datenspeicherung, Datensi-

cherung, Backup oder Archivierung angesehen, die zur Produktivitätssteigerung oder zur Verbesserung der betrieblichen Abläufe nichts beitragen kann. Dabei lassen sich die Erfahrungen mit der erfolgreichen Servervirtualisierung auch auf den Storagebereich übertragen. Viele Anwender gehen auch genau so in der Praxis vor: Sie erweitern Schritt für Schritt die Virtualisierung auf weitere Bereiche.

Virtueller Speicherplatz soll Unternehmen helfen, vorhandene Storage-Ressourcen effizient auszulasten sowie deren Verwaltung zu zentralisieren und zu vereinfachen. Gerade im x86-Bereich wurde die Virtualisierung deshalb vorangetrieben, weil die durchschnittliche Ausnutzung der Systeme sehr schlecht war. Für Dr. Joseph Reger, CTO (Chief Technology Officer) von Fujitsu Siemens Computers, liegt das klar auf der Hand: „Mit etwa zehn Prozent an Auslastung waren das gegenüber bestehenden Systemen

Page 57: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

62 Kapitel 7

wie Mainframes oder Unix-Plattformen sehr schlechte Werte.“ [1] Von allen Möglichkei-ten, diese Situation zu verbessern, habe sich vor allem die Hardware-Virtualisierung angeboten: „Der Grund dafür liegt darin, weil sich die darüber liegenden Schichten dann nicht mehr darum kümmern müssen“, führt Reger aus. Die „darüber liegenden Schich-ten“ sind alle jenseits der Hardware-Schicht, also Betriebssysteme und Anwendungen, die ebenfalls von der Virtualisierung profitieren.

Reger erklärt weiter: „Indem verschiedene Maschinen vorgegaukelt werden – Hard-ware-Stücke, die gar nicht vorhanden sind –, ergibt sich eine eigentümliche Schicht von Transparenz. Die Betriebssysteme und die Anwendungen müssen bei dieser Technologie gar nicht wissen, dass sie in einer virtualisierten Umgebung laufen. Dadurch wurde erreicht, dass die durchschnittliche Auslastung dramatisch nach oben getrieben und sehr viel Geld gespart wurde.“ [2]

Nach Ansicht von Reger gibt es grundsätzlich drei große Bereiche, bei denen man heute mit Virtualisierungstechnologien ansetzen kann: Hardware-Virtualisierung, Betriebssystem-Virtualisierung und Anwendungsvirtualisierung: „Bei der ersten Gruppe geht es darum, so zu tun, als hätten wir mehr Hardware, als tatsächlich vorhanden ist. Das gilt für Server und Storage gleichermaßen. Man täuscht virtuelle Instanzen der Hardware vor, die gar nicht da sind: Die jeweilige Physik ist nur einmal vorhanden, aber virtuell macht man daraus mehr. Das bedeutet, dass das Betriebssystem bereits nicht weiß, dass es auf virtuellen Instanzen läuft – aus Betriebssystemsicht gibt es wirklich zehn verschiedene Server oder Storage Arrays. Wenn das Betriebssystem virtualisiert wird, bedeutet das, dass die Anwendung denkt, dass es mehrere Instanzen des Betriebs-systems gibt, wogegen eigentlich nur eine läuft.“ [3] Mittels Thin-Provisioning kann in einem Speichersystem zum Beispiel mehr logischer Adressraum zur Verfügung gestellt werden, als physikalisch vorhanden ist.

Storage-Virtualisierung wird als Begriff zum Teil von der IT-Industrie missverständ-lich gebraucht. Ursprünglich wurde darunter das Abbilden von Speicher-Ressourcen für die beteiligten Server oder Applikationen, also das Zusammenfassen oder neu Gruppie-ren von physikalischen zu logischen Speichereinheiten verstanden. Heute wird es meist für die Zuweisung beliebiger Speicher-Ressourcen einschließlich Datenreplikationsme-chanismen verwendet. Dies umfasst Begriffe und Technologien wie Volume Manage-ment, Virtual Disk Volumes, Filesysteme, Virtual Tape, Virtual Ports oder Virtual SANs: Allen gemeinsam ist der Ansatz, die physikalische von der logischen Sicht zu trennen, also physikalischen Speicherplatz in abgegrenzte Teilbereiche (= Partitionen) aufzutei-len oder mehrere physikalische Festplatten zu einer oder auch verschiedenen logischen Einheiten zusammenzufassen.

Wenn es um die Virtualisierung im Speichernetz (SAN device virtualization) selbst geht, also um die Virtualisierung auf der Ebene der Switch-Infrastruktur, sind drei ver-schiedene Lösungsansätze zu unterscheiden:

Page 58: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Virtualisierung – bei Speicherthemen existiert Nachholbedarf 63

1) Bei der so genannten In-Band-Virtualisierung liegen die Kontrollinstanz für die Datenleitung, die Metadaten und der Datentransport selbst auf derselben Appliance. Die Skalierung dieser Lösungen wird durch die Transportleistung dieser Appliance bestimmt. Die Anbieter FalconStor und DataCore waren unter den ersten Herstellern, die solche Lösungen angeboten haben.

2) Bei der Out-of-Band-Virtualisierung kümmert sich eine eigene Appliance nur um die Metadaten und die Kontrolle des Datenpfades, während der Host beziehungsweise Server den Transport der Speicherdaten von und zu den Speichergeräten organi-siert.

3) Der dritte Lösungsansatz besteht in der Trennung von Kontrollinstanz und Daten-pfad, die durch ein intelligentes Netzwerkgerät vorgenommen wird. Diese Technolo-gie wird als „Split Path Architecture for Intelligent Devices“ (SPAID) bezeichnet. Switch-Hersteller wie Brocade und Cisco liefern hierfür geeignete Geräte. Die hier vorgenommene Trennung der Instanzen führt zu einer erhöhten Geschwindigkeit des Datentransports und ermöglicht eine Skalierung des Konzeptes.

Solche Virtualisierungslösungen verfolgen in der Regel zwei Ziele. Das erste Ziel ist die Befreiung von den Zwängen eines Speichersystems und/oder eines Herstellers. Das zweite Ziel ist die Bereitstellung von hersteller-unabhängigen Datendiensten wie Pool-Bildung (Zusammenfassung von Speicherkapazitäten gleicher Servicequalität), Daten-replikation wie Daten-Snapshots, Remote Mirroring oder Disaster Recovery.

Gemeinsam ist allen diesen Virtualisierungslösungen, dass sie eine abgestimmte Auswahl der jeweils optimalen Speichersysteme für eine bestimmte Aufgabenstellung erlauben. Speicherressourcen können so unabhängig vom Speichersystem beliebig zur Verfügung gestellt und dynamisch verändert werden. Nur die Basiseinrichtung der zu virtualisierenden Elemente wird noch durch die proprietären Managementapplikatio-nen vorgenommen. Die Anwender müssen also diese Elementenmanager zusammen mit der gewählten Virtualisierungssoftware einsetzen.

Die Mehrzahl der Anwender von Virtualisierungslösungen nutzt diese im Sinne eines verbesserten Speichermanagements. Virtualisierung erhöht die Wahlfreiheit der Anwen-der. Sie können Lösungen von mehreren Speichersystemherstellern zusammen in einem Pool verwenden. Oft werden die Speichersysteme bereits bei der Erstinstallation voll-ständig partitioniert und danach nur noch über die Virtualisierung gemanagt: „Insbe-sondere für sehr dynamische Umgebungen, zum Beispiel bei Service Providern oder Anwendern mit einer Vielzahl von kleinen Applikationsinseln wie in der öffentlichen Verwaltung, hat sich der Ansatz seit Jahren bewährt. Dort, wo eine hohe Skalierung über Tausende von LUNs und Hunderte von Servern notwendig ist, ist der Einsatz einer Split-Path-Technologie zwingend erforderlich.“ [4]

Im Gegensatz zur Server-Virtualisierung hat es bei der Storage-Virtualisierung noch keinen Durchbruch gegeben. Es zeichnet sich auch kein Marktstandard ab. Das liegt

Page 59: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

64 Kapitel 7

sicherlich auch daran, dass mit dem Konzept der LUN jedes SAN-Speichersystem bereits über eine rudimentäre Virtualisierung der Festplatten verfügt. Der Online-Storage-Vir-tualisierung kommt allerdings in virtualisierten Serverumgebungen zunehmend Bedeu-tung zu [5].

Anders sieht es bei dateibasierten Storage-Systemen, den NAS–Systemen, aus. Es gibt einige vielversprechende Ansätze zur File-Virtualisierung, allerdings hat sich auch hier noch kein Marktstandard etabliert [6].

Am weitesten fortgeschritten ist Storage-Virtualisierung bei Magnetbändern. Virtual Tape Libraries (VTL) sind heute Best Practise, wenn es um Backup auf Tape geht. Cen-tricStor VT ist das führende Produkt im Rechenzentrum, wenn es um Virtual Tape geht.

Page 60: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Kapitel 8

Die Storage-Strategie von Fujitsu Siemens Computers und seiner Partner

Fujitsu Siemens Computers ist Europas grösster Storage Anbieter und bietet sei-nen Kunden alles aus einer Hand, was diese für ihre Storage-Infrastruktur benö-tigen. Neben einer breiten Palette von Produkten der führenden Hersteller wie EMC, Brocade, NetApp, CA, Sun und Symantec hat der Hersteller eine Reihe von eigenen Speicherprodukten entwickelt, die besonders auf die Bedürfnisse der Anwender ausgerichtet sind. Ergänzt wird das Angebot um ausgefeilte Services, von der Wartung bis zum Managed Storage.

Verfügte noch vor kurzem jede Applikation über fest zugeordnete Infrastruktur, als Server, Netzwerkkomponenten und Storage Systeme, ist es heute das Ziel, den Applikationen nur die jeweils benötigten Infrastruktur-Ressourcen zuzuordnen.

Erreicht wird das über Virtualisierung: So entstehen große Ressourcenpools, die sich je nach Bedarf dynamisch nutzen lassen. Fujitsu Siemens Computers arbeitet darauf im Rahmen seiner Dynamic-Infrastructure-Strategie hin – Storage ist ein integraler Bestandteil.

CentricStor VT: intelligente Bandspeicher- Virtualisierung

Ein richtungsweisendes Beispiel für diesen Weg ist CentricStor VT. CentricStor VT (Virtual Tape) ermöglicht die intelligente Siche-

rung aller Unternehmensdaten. Die Dual Target Speicherlösung inte-griert die Vorteile von Festplatte und Magnetband, indem regelba-siert und autonom die Ablage der Sicherungsdaten erstmalig auf unterschiedlichste Speichermedien erfolgen kann. Bandverarbeitung wird somit fit für ILM (Information Lifecycle Management), und die unternehmensweite Datensicherung kann flexibel an unterschiedli-

Page 61: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

66 Kapitel 8

che Service Level Agreements (SLAs) ausgerichtet werden. Die True Tape Virtualization (TTV) von CentricStor VT steht für überdurchschnittliche Anschlussfähigkeiten und ermöglicht durch Konsolidierung aller Speichermedien für Backup eine deutliche Kos-tenreduzierung. Die CentricStor Grid Architecture (CGA) zeichnet sich durch Skalierbar-keit aus und bietet eine weit reichende Ausfallsicherheit für jedes Rechenzentrum.

Der am 31. Januar 2008 publizierte Report „The Forrester Wave: Enterprise Open Systems Virtual Tape Libraries“ von Forrester Research nimmt 12 Anbieter anhand von 58 Kriterien unter die Lupe. Das Ergebnis: Fujitsu Siemens Computers ist einer der Top-Marktführer bei Virtual Tape Libraries. Der Forrester-Report gibt dem Unternehmen Spitzennoten für seine Strategie im Bereich Virtual Tape Appliances: „Fujitsu Siemens Computers führt bei Host-Support, Architektur und Tape-Integration”. Weiter heißt es: „Als führender Systemanbieter in Europa kann sich das Unternehmen auf eine solide Basis von mehr als 300 Kunden und über 500 installierte VTLs stützen, wobei sich die meisten Installationen bei Großunternehmen befinden. Fujitsu Siemens Computers hat ein solides Wachstum bei Neukunden vorzuweisen und verzeichnet einen der höchsten Wachstumswerte bei Bestandskunden.”

Version 4 von CentricStor wurde gezielt entwickelt, um die folgenden Problempunkte von Datensicherungsverantwortlichen zu lösen:• Die Datenmengen wachsen kontinuierlich. • Die Aufbewahrungsfristen für Daten werden länger. • Für den Katastrophenfall muss ein zweites Rechenzentrum bereitgestellt werden.

Das positive Urteil von Forrester wird auch bestätigt durch eine Studie des Ex-Gart-ner-Analysten Josh Krischer: „Im Jahr 1999 hat Fujitsu Siemens Computers die Virtual-Tape-Lösung CentricStor herausgebracht, die eine wirklich offene und flexible Virtual Tape Library ist: Sie unterstützt Mainframe-, Unix- und Windows-Betriebssysteme und auch die meisten bestehenden Tape Libraries. Das Design der CentricStor war als Appliance angelegt, die mit allen bestehenden Servern, Libraries und allen möglichen Varianten von Backup-Software zusammenarbeiten konnte. Zunächst unterstützte sie nur BS2000- und MVS-Mainframes sowie Tape Libraries von ADIC, aber schon bald kamen immer mehr Zertifizierungen für die gesamte Palette an Betriebssystemen, Backup-Software und Tape-Technologien hinzu. Damit kann die CentricStor in fast jeder Umgebung eingesetzt werden, wodurch sie auch frühere Investitionen in Tape-Automatisierung schützt.“ [1]

Page 62: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Die Storage-Strategie von Fujitsu Siemens Computers und seiner Partner 67

CentricStor FS: konsolidierte File Services

CentricStor FS ist ein innovatives, scale-out Speichersystem, das File Services mit hoher Geschwindigkeit bietet und sehr zuver-

lässig ist. Es bietet eine praktisch unbegrenzte Skalierbarkeit hin-sichtlich Speicherkapazität, Datendurchsatz und Zugriffszeiten.

Die Verwaltung von CentricStor FS ist einfach – unabhängig von der Größe muss nur ein einziges Dateisystem verwaltet werden. Dadurch lassen sich die Speicherressourcen deutlich besser auslas-ten. Zusätzliche Speicherkapazität kann einfach bereitgestellt wer-den, und CentricStor FS lässt sich zudem sehr leicht installieren. Bei Ausfall einer Komponente wird durch Automatic Failover und Fall-back gewährleistet, dass das System weiterläuft.

Terri McClure, Analyst bei der Enterprise Strategy Group (ESG), kam in einem Bericht zu diesem Urteil:„Das kürzlich angekündigte CentricStor FS von Fujitsu Siemens Computers ist ein High-End-Speichersystem auf Dateibasis, mit dem Skalierungen auf einer hohen Granularitätsstufe möglich sind, um so die Kapazitäts-, Verfügbarkeits- und Leis-tungsanforderungen von Initiativen zur Dateiserver-Konsolidierung und von Web 2.0-Anwendungen zu erfüllen. Die Verwendung von Standardkomponenten und die ausgeprägte Cluster-Fähigkeit machen CentricStor FS zu einer einfach zu verwalten-den, skalierbaren File-Storage-Lösung mit einem geringen Einstiegspreis, die speziell im Hinblick auf die neue Realität eines wachsenden Dateiaufkommens konzipiert wurde.“ [2]

FibreCAT SX Series: schnelle Speichersysteme für das Rechenzentrum

Die FibreCAT SX40, SX60, SX80, SX80 iSCSI, SX88 und SX100 Speicher-

systeme bieten die Qualität und Zuver-lässigkeit, wie sie für Rechenzentren gefordert werden. FibreCAT SX-Sys-teme sind sehr schnelle Speichersysteme, insbesondere die FibreCAT SX88, die bis zu 50 Prozent schneller als die FibreCAT SX80 ist, und die FibreCAT SX100, die die doppelte

Page 63: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

68 Kapitel 8

Geschwindigkeit und Leistung der FibreCAT SX80 aufweist. Möglich wird dies dank der Fibre-Channel-Technologie mit 4 Gigabit pro Sekunde, FibreCache und neuester RAID-Controller-Technologie. Snapshots sind serienmäßig integriert. Die revolutionäre Fibre-Cap-Technologie schützt Daten auch bei Stromausfällen.

FibreCAT SX-Systeme sind bedienerfreundlich und einfach in Betrieb zu nehmen. Auch die Verwaltung ist dank der intuitiven Web-Oberfläche unkompliziert. Die Sys-teme sind für eine große Bandbreite von Anwendungen geeignet.

Der Analyst Hamish Macarthur von Macarthur Stroud International äußerte sich wie folgt zu der FibreCAT SX Series: „Die vorhandenen Informationen eines Unternehmens zu verwalten und zu schützen, sichert den Erfolg in vielen Märkten. Die Systeme, in denen die Daten aufbewahrt werden, müssen sicher, zuverlässig und leicht zu managen sein. Die FibreCAT SX-Produkte unterstützen sowohl zuverlässige Primärspeicher als auch Backup- und Restore-Systeme. Die neuen Arrays sind eine sichere Investition, die die Anforderungen großer und mittelständischer Unternehmen gleichermassen abdecken.“

FibreCAT NX40 S4: zuverlässige Datei- und Druckserver und SAN/NAS Gateway für den Mittelstand

Die FibreCAT NX40 S4 ist ein Datei- und Druckserver und

ein SAN/NAS Gateway für den Mittelstand. Das System erschließt durch seine Qualität und Zuver-lässigkeit eine hohe Bandbreite an Einsatzmöglichkeiten in Abteilungen und Außenstellen.

Die FibreCAT NX40 S4 ist ein Rack-Modell in einem Gehäuse mit nur 2 Höheneinhei-ten (2 HE). Das System kann mit SATA-II- oder leistungsstarken SAS-Festplatten ausge-stattet werden und bietet im Vollausbau eine interne Speicherkapazität von 4,5 Tera-byte. Über weitere Schnittstellen (SAS, Fibre Channel) kann das System zur Kapazitäts-steigerung mit externen Speichersystemen erweitert werden und fungiert dann als SAN/NAS-Gateway. Besonders einfach ist die Erweiterung mit der FibreCAT SX/CX Fami-lie, da hier die benötigte Software bereits vorinstalliert ist. Die FibreCAT NX40 S4 ist optional auch mit iSCSI Funktionalität erhältlich.

Das System nutzt das Betriebssystem Windows Storage Server 2003 R2 mit Zusatz-funktionen für den Datei- und Druckserver-Bereich. Die FibreCAT NX40-S4-Systeme sind vorgetestet, vorinstalliert und vorkonfiguriert und somit in Minuten einsatzbereit.

Page 64: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Die Storage-Strategie von Fujitsu Siemens Computers und seiner Partner 69

FibreCAT TX Serie: LTO erobert den Mittelstand

Die FibreCAT TX Serie besteht aus dem Einsteigermodell TX08 und den beiden

für den Mittelstand gedachten Modellen TX24 S2 und TX48 S2. Die FibreCAT TX08 ist eine kompakte und zuverlässige Band-automatisierung. Sie ermöglicht den kos-tengünstigen Einstieg in die FibreCAT TX-Familie.

Die FibreCAT TX08 ist mit LTO-Technologie ausgestattet, dem Synonym für große Kapazität, hohe Geschwindigkeit und sehr geringen Medienkosten. Sie kann wahlweise mit einem LTO-2, LTO-3- oder LTO-4-Laufwerk ausgestattet werden, das jeweils eine halbe Höheneinheit umfasst und eine Speicherkapazität von 12,8 Terabyte (LTO-4 kom-primiert) bietet. Das entspricht einer automatisierten Datensicherung von etwa 2 Wochen. Der Angebotspreis beinhaltet eine Vollversion der Backup-Software ARCserve Backup sowie ein Jahr Vor-Ort Service.

Bei der zweiten Generation der Magnetbandsysteme FibreCAT TX24 S2 und FibreCAT TX48 S2 ist die Sicherung auf Band im Vergleich zur Festplatte generell energieeffizien-ter, da nur dann signifikant Strom verbraucht wird, wenn die Daten gelesen oder auf das Band geschrieben werden. Die beiden Systeme bieten SAS- und Fibre-Channel-Schnittstellen zum Server an.

FibreCAT Solution-Lab

Fujitsu Siemens Computers bietet nicht nur eigene Produkte, sondern verfügt auch über umfangreiche Storage-Kompetenz hier in Europa. Neben den zahlreichen Sto-

rage–Experten, die vor Ort Projekte betreuen, wurde die zentrale Kompetenz im Fibre-CAT Solution Lab in Paderborn gebündelt.

Die zentrale Aufgabe des FibreCAT Solution Lab ist die ständige Qualitäts-Überwa-chung im Hinblick auf die zuverlässige Verfügbarkeit aller Systeme und Komponenten. Dies beinhaltet auch die Koordination einer nahtlosen Integration der verschiedenen FibreCAT Systeme in das umfangreiche Lösungsportfolio von Fujitsu Siemens Compu-ters. Zu weiteren Aufgaben zählen die frühzeitige Einhaltung und Umsetzung gesetzli-cher Standards im Hinblick auf Umweltschutz und DIN-ISO-Standards. Auf Wunsch werden im FibreCAT Solution Lab kundenspezifische Tests durchgeführt und somit rea-listische Einsatzszenarien nachgestellt. Fujitsu-Siemens-Kunden haben somit die Mög-lichkeit, insbesondere die FibreCAT-Systeme in Live-Demos zu erleben.

Page 65: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

70 Kapitel 8

Managed Storage

Für das Thema Storage bedeutet Wachstum vor allem ein immenses Mehr an Daten, die verwaltet, gespeichert, bereitgestellt und gesichert werden müssen. Damit steigt

sowohl die Nachfrage nach Online-Speicherkapazität als auch der Bedarf an Back-up-Speichervolumen. Grenzen dieses Wachstum sind nicht erkennbar.

Vor diesem Hintergrund stellte sich SAP die Frage, ob das Unternehmen das benö-tigte Storage-Volumen weiterhin selbst managen oder das machen sollte, was die eige-nen Hosting-Experten auch ihren Kunden empfehlen: Auslagern, was nicht zu den Kernkompetenzen gehört, und sich selbst auf das konzentrieren, was wichtig für das Kerngeschäft ist.

Das hieß für die Verantwortlichen bei SAP, den Betrieb und die Betreuung der pro-zessunterstützenden Storage-Infrastruktur in kompetente externe Hände zu legen. SAP fand diesen kompetenten Partner in Fujitsu Siemens Computers. Fujitsu Siemens Com-puters übernahm in der zentralen Rolle des Generalunternehmers für SAP die gesamte Verantwortung für die Bereitstellung von anfangs vier Petabyte monatlicher Speicher-kapazität für den Online-Bedarf und täglich mehr als 200 Terabyte für die Datensiche-rung. Darüber hinaus werden zur zeitnahen Abdeckung zusätzlichen Bedarfs entspre-chende Kapazitäten vorgehalten und anforderungsgerecht bereitgestellt.

Fujitsu Siemens Computers betreut somit eines der größten Managed-Storage-Pro-jekte in Europa und steuert auch die Zusammenarbeit mit den beteiligten strategischen Partnern EMC und Network Appliance, die ihre Produkte im SAN- und NAS-Umfeld einbringen und mit ihrer Spezialisten-Expertise in die betreffenden Dienstleistungsparts involviert sind.

Storage – Teil des Ganzen

In der Storagewelt reicht es nicht aus, den Hebel zur Bewältigung der Datenflut mal hier und mal dort anzusetzen. Anstelle von Einzelschritten ist ein Paradigmenwechsel

gefordert. Es gilt, verschiedene Technologien zu ganzheitlichen Lösungen zu verbinden, sie beherrschbar und einfach bedienbar zu machen. Dabei ist Storage kein Einzelthema, sondern wesentlicher Teil des Ganzen im dynamischen Rechenzentrum. Fujitsu Siemens Computers hat deshalb die Strategie Dynamic Infrastructure entwickelt.

Die Speicherlösungen von Fujitsu Siemens Computers sind ein fester Bestandteil dieser Strategie und Bausteine für die Umsetzung des Ziels, durchgängige IT-Lösungen bereitzustellen, die einen maximalen Geschäftsbeitrag bei minimalen Gesamtkosten lie-fern. Eines der erfolgreichsten und bekanntesten Beispiele für diese Lösungen mit einer

Page 66: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Die Storage-Strategie von Fujitsu Siemens Computers und seiner Partner 71

virtualisierten Infrastruktur aus Servern und Speichersystemen ist FlexFrame for mySAP.

Die Kunden ziehen einen weiteren Nutzen aus der Tatsache, dass Fujitsu Siemens Computers gerade im Bereich Storage mit vielen Partnern zusammen arbeitet. Stellver-tretend für die exzellente Zusammenarbeit seien hier die CEOs von den Partnern EMC und NetApp zitiert:

Joe Tucci, President & CEO von EMC: „Die Kombination aus EMCs vernetzten Spei-cherlösungen und den serverbasierten Lösungen von Fujitsu Siemens Computers bildet ein breites Angebot aus durchgängigen Infrastrukturlösungen für die Anforderungen unserer Kunden. In Fujitsu Siemens Computers Vision des Dynamic Data Center spielen EMC-Lösungen eine Schlüsselrolle, und wir werden weiterhin das Hauptaugenmerk unserer gemeinsamen Anstrengungen darauf richten, unseren Kunden das umfas-sendste am Markt verfügbare Lösungsportfolio anbieten zu können.“

Dan Warmenhoven, CEO von NetApp: „Die strategische Partnerschaft mit Fujitsu Siemens Computers hat wesentlich zu unserem Erfolg beigetragen und ist in der Region EMEA weiterhin auf Wachstumskurs. Unsere gemeinsam entwickelte Lösung FlexFrame for mySAP Business Suite, die Realisation einer schnellen Backup-Lösung für Oracle oder ein zusammen mit Oracle gegründetes Center of Excellence sind nur einige Bei-spiele für die herausragenden Ergebnisse unserer bisherigen Zusammenarbeit.“

Page 67: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Ausblick

Future Storage Trends

Im Bereich der Speichersysteme stehen Unternehmen vor vielfältigen Herausforde-rungen. Insbesondere das kontinuierliche Datenwachstum verlangt nach immer neuen Ideen, wie man Storage effizienter gestalten kann. Anders als bei PCs und

Servern, wo dominante Marktteilnehmer Standards vorgeben, finden sich im Storage-Markt immer wieder innovative Unternehmen, die mit ungewöhnlichen, neuen Ideen dem Markt neue Richtungen geben. Nachdem wir uns mit den wesentlichen Storage-Technologien in den vergangenen Kapiteln vertraut gemacht haben, möchten wir hier aufzeigen, welche aktuellen Storage Trends das Potential haben, sich durchzusetzen und die Art, wie Unternehmen Informationen speichern, nachhaltig zu verändern. Wir haben fünf relevante Trends herausgesucht:

1. Fibre Channel over Ethernet (FCoE)2. Massive Array of Idle Disks (MAID)3. Flash-based Solid State Disks (SSDs)4. Security (Encryption of Data at Rest)5. New Storage Architectures (Grid Storage)

1. Fibre Channel over Ethernet (FCoE)

Obwohl zwei der drei führenden Storage-Technologien (NAS, iSCSI) auf Ethernet basieren, dominiert die dritte, SAN, bei weitem den Markt. SANs werden typischer-

weise auf Fibre-Channel-Basis implementiert. Für Fibre-Channel-Netze werden dedi-zierte HBA (Host Bus Adapter, also Server-Steckkarten) und Switche benötigt. Diese Netzwerkkomponenten sind deutlich teurer als Ethernet-Karten und -Switche und ver-langen auch nach Fibre-Channel-spezifischem Know-how. Somit ist die Frage nahelie-gend, ob man nicht auch SAN-Speichernetze auf Ethernet-Basis aufbauen kann und somit nur noch eine Art von Netz braucht. Das würde die Kosten deutlich reduzieren. Statt vier Kabel (zwei mal Ethernet, zwei mal Fibre Channel) verließen den Server nur noch zwei FCoE-Kabel. Bereits iSCSI war mit diesem Versprechen gestartet, konnte aber Fibre Channel-SAN-Puristen nie so recht überzeugen.

Einige Gründe: Im Gegensatz zu FCoE, bei dem die Fibre-Channel-Tools weiterge-nutzt werden können, ändert sich bei iSCSI auch diese Ebene. Und: Ethernet ist nicht

Page 68: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

74 Ausblick

deterministisch. Führende Netzwerkausrüster liefern sich nun einen Wettlauf, das Thema der Zusammenführung von Storage-Netzwerk und Server-Netzwerk neu zu adressieren: Der Ethernet-Standard soll so erweitert werden, dass er die gleiche Quality of Service liefern kann wie ein Fibre-Channel-Netzwerk. Das Ergebnis wird das so genannte DCE (Data Center Ethernet) sein, über das dann bisheriger TCP/IP-Datenver-kehr genauso abgewickelt werden kann wie Fibre Channel (FCoE). In Kürze wird das 10Gb-Ethernet zur Verfügung stehen, 40Gb und 100Gb sind am Horizont sichtbar. Gleichzeitig gibt es aber auch Pläne, Fibre Channel jenseits von 8Gb/s auch auf 16Gb/s zu erweitern. Eine Umstellung auf FCoE wird mit hohen Infrastrukturinvestitionen ver-bunden sein, die sich erst im Laufe der Zeit durch die Einsparungen aus dem Betrieb gleichartiger Netze egalisieren lassen.

2. Massive Array of Idle Disks (MAID)

Heute im Einsatz befindliche Enterprise-Festplatten drehen sich ununterbrochen, 24 Stunden täglich, 7 Tage die Woche (24 x 7). Damit nützen sich nicht nur die mecha-

nischen Teile mit der Zeit ab, sondern es wird auch unaufhörlich Energie verbraucht. Bei einem alternativen Storage Array auf MAID-Basis ist nur ein kleinerer Teil der Festplat-ten ständig aktiv. Festplatten, auf die seit einiger Zeit nicht zugegriffen wird, werden ausgeschaltet. Das macht allerdings nur Sinn, wenn tatsächlich längere Zeit nicht auf die Daten zugegriffen wird: Häufiges An- und Ausschalten würde sogar noch mehr Strom verbrauchen und sich negativ auf die Lebensdauer der Platten auswirken. Daher kommt MAID im wesentlichen im Archivierungs- und Backup-Bereich zum Einsatz, wo auch der Preis pro gespeichertes Terabyte wichtig ist. Somit werden in MAID-Systemen typischerweise SATA-Platten eingesetzt. Um signifikant Strom zu sparen und somit Green IT einen weiteren Schritt näher zu kommen, ist MAID ein wichtiger Schritt. Es gilt allerdings, einige Klippen zu umschiffen: Um sicherzustellen, dass die Daten auch noch gelesen werden können, sollten die Platten periodisch hochgefahren und überprüft werden. Alternativ kann man auch, statt sie ganz auszuschalten, lediglich die Drehzahl verringern. Auch das spart signifikant Strom, reduziert aber die Gefahr unerkannter Plattenfehler.

3. Flash-based Solid State Disks (SSDs)

Flash-Speicher-basierte SSDs sind zwar, wenn es um den Preis pro Kapazität geht, teurer als herkömmliche Festplatten, doch aufgrund ihrer vielfach größeren Lesege-

Page 69: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Future Storage Trends 75

schwindigkeit und schnelleren Zugriffsgeschwindigkeit sind SSDs, die für den Enter-prise-Einsatz optimiert sind, in Sachen Preis pro IOPS heutigen Festplatten bereits über-legen. Darüber hinaus verbrauchen sie weniger Energie, produzieren kaum Abwärme und haben, da es keine beweglichen Teile gibt, auch keine Probleme mit rotational Vib-ration. Da der Preis der Flash Chips in den letzten Jahren im Schnitt pro Jahr um 50 Prozent gefallen ist, werden diese Platten für immer mehr Einsatzfälle interessant. Um ähnliche Geschwindigkeiten zu erreichen, werden heute möglichst viele Festplatten zusammen eingesetzt. Durch den parallelen Zugriff auf viele „Spindeln“ wird hier die hohe Geschwindigkeit realisiert. So kommt es, dass in solchen Szenarien mit nur zwei SSDs (zwei, um über Spiegelung eine Datenredundanz sicherzustellen) viele, gar ein Dutzend Festplatten in RAID-5- oder RAID-6-Verbünden ersetzt werden können. Das hat gravierende Stromspareffekte zur Folge.

4. Security (Encryption of Data at Rest)

Datenmanagement und Datenspeicherung hat immer auch mit Sicherheit zu tun: Wenn sensible Daten in die falschen Hände geraten, hat das gravierende Konse-

quenzen. Um den Missbrauch zu verhindern, hilft Verschlüsselung: Sind die Daten nicht lesbar, sind sie für den, der Zugriff auf sie hat, aber nicht haben sollte, unbrauchbar. Dies gilt auch, wenn defekte oder scheinbar defekte Datenträger (z.B. Festplatten) ausge-tauscht werden. Alle Daten auf den defekten Datenträgern sind garantiert nicht lesbar. Leider gibt es viele Ansätze für eine Verschlüsselung. Sie kann auf verschiedenen Ebe-nen erfolgen: bei der Applikation, den Filesystemen, der Netzwerk- und Switch-Ebene sowie in Geräten wie eigenen Encryption-Appliances oder Tape Libraries und Disk Dri-ves. Problematisch ist derzeit noch das Schlüsselmanagement über ein gesamtes Rechenzentrum hinweg, da die meisten Hersteller ihr eigenes Key Management anbie-ten. Eine Standardisierung steht noch aus. Ohne einen Standard aber ist nicht sicherge-stellt, dass die Nutzer der Daten sie auch lesen können und auch problemfrei austau-schen können.

5. New Storage Architectures (Grid Storage)

Heutige Speichersysteme sind in aller Regel monolithisch aufgebaut und sie wurden speziell als Speichersystem entworfen. Da Speichersysteme in deutlich geringeren

Stückzahlen gefertigt werden als PCs oder Standardserver, ist ihre Produktion entspre-

Page 70: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

76 Ausblick

chend teuer. Wie bei allen monolithischen Systemen ist der Maximalausbau designbe-dingt beschränkt.

Hier deutet sich ein Paradigmenwechsel an, der die Speicherindustrie revolutionie-ren wird: Man nehme Standardserver und in großen Stückzahlen produzierte einfache Standard-RAID-Systeme und füge sie dank einer intelligenten Softwareschicht zu einem Storage-System zusammen. Solche Scale-Out-Systeme können massiv erweitert werden, indem immer mehr solcher Standardkomponenten hinzugefügt werden. So hat das Wachstum nicht nur fast keine Grenzen, die Systeme bieten mit zunehmender Größe auch mehr Kapazität und mehr Zugriffsgeschwindigkeit. Diese Architektur ver-leiht den Systemen die Skalierbarkeit und die Elastizität, die insbesondere in der heuti-gen file-getriebenen Welt dringend gebraucht wird und auch das Rückgrat für die Internet-Infrastruktur darstellt (Cloud Computing). CentricStor FS gehört zu den ersten Inkarnationen dieser neuen Storage-Generation.

Page 71: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Anmerkungen

Kapitel 1

[1] Der Triumph der großen Zahl – Zehn Jahre Google; Neue Zürcher Zeitung, 25. April 2008.[2] Details zur Schriftentwicklung bei Charles Panati, The Browser’s Book of Beginnings – Ori-

gins of Everything Under, and Including, the Sun, New York 1998, Seite 67 ff.[3] Der Spiegel, Ausgabe vom 11. 8. 2008, Titelgeschichte „Die Daten-Sucht“, Seite 88.[4] Zu den positiven und negativen Auswirkungen dieser Entwicklung haben sich viele Autoren

geäußert. So Neil Postman, Joseph Weizenbaum, Nicholas Negroponte oder Nicholas Carr. Zu Carr siehe auch das Interview in Hendrik Leitner / Hartmut Wiehr, Die andere Seite der IT – Business-Transformation durch Services und dynamische Infrastruktur, München 2006, Seite 215 ff.

[5] Vgl. auch folgende Passage aus einem Interview in der Wochenzeitung „Die Zeit“. Frage: „Welche Entwicklung hat den Umgang mit Wissen in den vergangenen Jahren am

meisten verändert?“ Antwort: „Da gab es zwei. Erstens: Festplatten sind praktisch umsonst. Deshalb ist es keine

Utopie mehr, alle veröffentlichten Werke der Menschheit auf Platte zu haben. Zweitens: Praktisch kein Mensch auf dieser Welt ist mehr als einen Tagesmarsch von einem Inter-net-Café entfernt. Wir haben jetzt die Kommunikationsinfrastruktur, um die großen Biblio-theken der Welt einem Jugendlichen in Uganda oder auch in armen Gegenden der USA oder Deutschlands zur Verfügung zu stellen.“ (Interview mit Brewster Kahle, Direktor des Internet Archive in San Francisco; Die Zeit, 17. 1. 2008)

Kapitel 2

[1] Der Aufkauf von Anbietern wie Cognos, Business Objects, Hyperion, Documentum oder File-Net, die entweder Software für Dokumentenmanagement (DMS) oder Business Intelligence (BI) entwickelt hatten, durch große Speicherhersteller oder Hersteller mit einem starken Speicheranteil beweist, dass Storage-Hardware und inhaltliche Kriterien der gespeicherten Daten zusammengeführt werden sollen. Man kann es auch lesen als Versuch der Integration von klassischen Speichergeräten mit ILM oder HSM.

[2] Steve Duplessie, File Infrastructure Requirements in the Internet Computing Era, Enterprise Strategy Group (ESG), Juli 2008, Seite 5.

[3] Fred Moore / Horizon Information Strategies, Storage Spectrum (2007), Seite 76.[4] „Jeder vierte Anwender hat ILM bisher punktuell umgesetzt, aber nur bei 3,5 Prozent sind

solche Lösungen unternehmensweit im Einsatz. Anwender, die sich ernsthaft mit dem Thema befassen, sollten sich darüber im Klaren seien, dass ILM weder als Produkt zu kaufen noch über ein einmaliges Projekt zu realisieren ist“. Wolfram Funk, Experton Group (zitiert nach Computerwoche 46/2006, Seite 40)

Page 72: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

78 Anmerkungen

[5] Vgl auch das Interview mit Michael Peterson in http://www.searchstorage.de/themenbe-reiche/archivierung/e-mail/articles/107136/.

[6] Vgl. zum Beispiel Dan Warmenhoven, CEO von NetApp: „ Mein Standpunkt (zu ILM) ist, dass man keinen arbeitsintensiven Prozess zum Verwalten der Daten einrichten sollte, wenn es einen automatisierten gibt. Und ILM ist sehr arbeitsintensiv. (…) Der Anwender will seine Daten von einem teuren Speicher auf einen billigen migrieren. Und er benötigt ein Online-Archiv, um die Daten schnell wiederzufi nden, aber auch aus Compliance-Gründen. NetApp spricht von Datenarchivierung und -migration. Das alles ILM zu nennen verwirrt.“ (Interview in Computerwoche, 9. 11. 2007)

Kapitel 3

[1] Vgl. Hartmut Wiehr, „Disk-Systeme – Technik und Produkte“, in iX extra, Ausgabe 12/2007 (kostenloser Download über: http://www.heise.de/ix/extra/2007/ie0712.pdf).

[2] Siehe auch den Ausblick in diesem Buch, Seite 73.[3] In professionellen Disksystemen gibt es so etwas wie ein Frühwarnsystem. Platten melden

im laufenden Betrieb, ob sie demnächst ausfallen: Laufwerke, die lange nicht angesprochen wurden, werden periodisch dennoch angefahren, um ihre Funktionstüchtigkeit zu überprü-fen. Reagieren sie noch unmittelbar auf Signale oder erst bei wiederholten Versuchen? Letz-teres deutet darauf hin, dass eventuell die magnetische Oberfl äche nicht mehr einwandfrei ist. Alle entsprechenden Informationen werden gesammelt, bei Überschreiten bestimmter Schwellwerte gemeldet oder veranlassen das System, eine der Reserveplatten einzusetzen. Oder es wird eine Meldung an den Wartungsdienst geschickt, der dann für einen Austausch der beschädigten oder fehlerhaften Platte sorgt.

[4] Von ICP Vortex gibt es ein übersichtliches Grundlagenpapier (White Paper) zu den verschie-denen RAID-Levels. Das Papier ist in deutscher Sprache verfasst und kann hier heruntergela-den werden: http://vortex.de/NR/rdonlyres/82BA6504-885D-444E-AC71-7AC570CF56A3/0/raid_d.pdf.

[5] Siehe auch Günter Thome / Wolfgang Sollbach, Grundlagen des Information Lifecycle Ma-nagement, Berlin Heidelberg 2007, Seite 214 ff.

Kapitel 4

[1] Zur Geschichte des Ethernet-Protokolls und des Internets, die im Auftrag der amerikanischen Armee entwickelt worden waren und den Nachrichtentransport in einem Kriegsfall sicher-stellten sollten, siehe http://www.informatik.uni-bremen.de/grp/unitel/referat/timeline/ti-meline-2.html.

[2] Für weitere Informationen zu SANs und Fibre Channel siehe http://www.snia.org/education/tutorials/ und http://www.fi brechannel.org/.

[3] Historisch betrachtet hatte zunächst CNT den Konkurrenten Inrange übernommen, wurde dann aber bald darauf selbst von McData aufgekauft. Brocade vereinigt nun alle ehemaligen FC-Switches-Anbieter gegen Cisco, das Unternehmen, das wohl über die größte Marktkraft

Page 73: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Anmerkungen 79

im Netzwerkbereich verfügt. Weltweit gesehen ist Brocade noch immer Marktführer bei FC-Swiches, während Cisco kontinuierlich seinen Anteil vor allem in den USA erweitert hat. Brocade hat sich inzwischen mit der Übernahme von Foundry selbst einen renommierten Netzwerkhersteller einverleibt und damit auch auf dieser Ebene gleichgezogen.

[4] Gute Darstellungen zur Entwicklung der IT-Industrie fi nden sich in Paul E. Ceruzzi, A History of Modern Computing, Cambridge und London 2003, und in Clayton M. Christensen, The Innovator’s Dilemma, New York 2000. Eine Darstellung der jüngsten Speichergeschichte fi n-det sich in Hartmut Wiehr (Hrsg.), Storage Compendium 2006/2007, München 2006.

[5] Vgl. Mario Vosschmidt/Hartmut Wiehr, Speichernetze und ihre Verwaltungsinstrumente; in: iX, Heft 8/2008, Seite 122 ff.

[6] Eine gute Übersicht fi ndet sich in der Broschüre „NetApp Produkte & Lösungen“.[7] Interview mit David Hitz in „project 57 – Journal für Business Computing und Technologie“,

Special 01/05, Seite 39 ff. Vergleiche auch das Interview mit NetApp-CEO Dan Warmenhoven in Computerzeitung, Ausgabe 38/2008, Seite 10.

Kapitel 5

[1] Viele Speicherhersteller liefern zusammen mit ihrer Hardware eigene Backup-Programme aus. EMC, Partner von Fujitsu Siemens Computers, hat nach der Legato-Übernahme 2003 eine komplette Lösung (NetWorker) im Angebot. Von den unabhängigen Anbietern sind vor allem CA mit ARCserve und Symantec mit NetBackup zu nennen. Im Windows-Umfeld sind häufi g CommVault und BakBone anzutreffen.

[2] Siehe hierzu Dave Russell / Carolyn DiCenzo, MarketScope for Enterprise Backup/Recovery Software 2008, April 2008.

[3] Ein Beispiel für Fehlerkorrekturen ist ECC (Error Correction Code). Die Korrektur dient dazu, Fehler bei der Speicherung und Übertragung von Daten zu erkennen. In einem zweiten Schritt werden dann die Fehler automatisch behoben.

[4] Mit S.M.A.R.T. (Self-Monitoring, Analysis and Reporting Technology) verfügen Festplatten über eine Funktion, die sie ständig überwacht. Dabei werden technische Werte wie Tempera-tur, Anlaufzeit oder Spursicherheit der Lese- und Schreibköpfe kontrolliert.

[5] Spezialisierte Dienstleister wie Kroll Ontrack oder Seagate Services können ausgefallene oder durch Feuer und Wasser beschädigte Festplatten oft wiederherstellen und so die verlorenen Daten retten.

[6] Siehe Hartmut Wiehr, Begrenzte Lebensdauer: Disks – Status quo und Trends; in iX extra, Ausgabe 12/2007; Download: http://www.heise.de/ix/extra/2007/ie0712.pdf. Dort werden auch weitere Begriffe und Zusammenhänge zu diesem Themenkreis erläutert.

[7] Weitere Angaben bei www.speicherguide.de: Schwerpunkt Bandlaufwerke und Tapes (http://www.speicherguide.de/magazin/bandlaufwerke.asp?mtyp=&lv=200). Die Haltbarkeit von DVDs und Blu Ray Disc (BD) unterliegt sehr großen Schwankungen. Der Markt ist breit ge-fächert, besonders im Consumer-Segment. Eine gute Übersicht über die Haltbarkeit dieser optischen Medien unter Berücksichtigung ihrer Eignung für Archivierungszwecke fi ndet sich in c’t – Magazin für Computertechnik, Ausgabe 16/2008, Seite 116 ff.

[8] StorageTek stellte bereits 1987 das 4400 Automated Cartridge System (ACS) vor, das die Basis für die 1988 herausgebrachten 4400 Tape Libraries (Nearline) darstellte. Die groß-en Powderhorn-Libraries von 1993 waren eine Weiterentwicklung dieser Technologie, mit

Page 74: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

80 Anmerkungen

der ein sehr schneller Zugriff auf Bandlaufwerke (Tape Cartridges) möglich ist. Noch heute sind viele Powderhorns im Einsatz, und nach der Übernahme von StorageTek durch Sun im Jahr 2005 musste der neue Eigentümer bereits mehrfach auf Druck von großen Kunden die Wartungszyklen verlängern. Diese Kunden sahen keinen Grund darin, ihre bewährten Tape Libraries auszumustern und durch Nachfolgemodelle zu ersetzen.

[9] Vgl. „The Top 10 Storage Inventions of All Time“, in Byteandswitch, 16. Juni 2008.[10] Hartmut Wiehr, Dedup krempelt das Backup um, in Computerzeitung, Ausgabe 28/2008,

Seite 10.

Kapitel 6

[1] Mit FlexFrame for SAP und FlexFrame for Oracle hat Fujitsu Siemens Computers zwei dy-namische Infrastrukturlösungen entwickelt, die Speicher-, Server- und Netzwerkressourcen auf einer einzigen Plattform bündeln. Im laufenden Betrieb können so in einer virtuellen Umgebung Ressourcen zugewiesen und verschoben werden – je nach aktuellen Anforde-rungen.

[2] Zur Virtualisierung siehe auch Kapitel 7.[3] Siehe auch Mario Vosschmidt/Hartmut Wiehr, Gut eingebunden – Speichernetze und ihre

Verwaltungsinstrumente, in: iX – Magazin für professionelle Informationstechnik, Heft 8/2008, Seite 123.

[4] Veröffentlicht in tecchannel, 26. Januar 2006. Für einen vertieften technischen Überblick siehe auch den Artikel „Mit SMI-S hat sich die Storage-Networking-Industrie ihren inneren Zusammenhalt gegeben“ auf www.searchstorage.de (5. September 2007).

Kapitel 7

[1] „Virtualisierung treibt die Industrialisierung der IT voran“: Interview von Hartmut Wiehr mit Dr. Joseph Reger, auf www.searchstorage.de, 10. April 2004: http://www.searchstorage.de/themenbereiche/rz-techniken/virtuelle-systeme/articles/117015/.

[2] Ibid.[3] Ibid.[4] Mario Vosschmidt/Hartmut Wiehr, Gut eingebunden – Speichernetze und ihre Verwaltungs-

instrumente, in: iX-Magazin für professionelle Informationstechnik, Heft 8/2009, S. 124.[5] LUN-Masking (auch LUN-Mapping) bedeutet, dass einer Applikation nur der Speicherbereich

zugewiesen und sichtbar gemacht wird, den sie für die Durchführung ihrer Arbeiten braucht. Durch diese Segmentierung wird der allgemeine Zugriff auf bestimmte Speicherbereiche unterbunden, was zugleich die Sicherheit aller Applikationen erhöht. Bei SAN-Zoning wird das gleiche Prinzip auf die Unterteilung eines Netzes in virtuelle Subnetzwerke angewendet, so dass Server einer Zone nicht auf Speichersysteme einer anderen Zone zugreifen können.

[6] Siehe auch Steve Duplessie, File Infrastructure Requirements in the Internet Computing Era, Enterprise Strategy Group (ESG), Juli 2008.

Page 75: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Anmerkungen 81

Kapitel 8

[1] Josh Krischer, Krischer & Associates, CentricStor Virtual Tape: the Swiss Army Knife for data protection, September 2008

[2] Terri McClure, Enterprise Strategy Group (ESG), CentricStor FS von Fujitsu Siemens Computers, Juli 2008

Page 76: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

A

Array (Storage Array)Ein Subsystem aus einer Reihe von Festplatten (oder Bandlaufwerken), die gemeinsam von einer Software gesteuert werden, welche in der Regel ebenfalls innerhalb des Subsystems aus-geführt wird.

Asynchrone ReplikationNach dem Schreiben von Daten auf das pri-märe Speichermedium können sogleich neue Schreibvorgänge auf diesem Medium erfolgen, ohne dass zunächst die Schreibvorgänge auf dem sekundären (räumlich entfernten) Spei-chermedium abgeschlossen sein müssen. Die asynchrone Replikation kommt ohne die Latenznachteile der synchronen Replikation aus, hat aber den Nachteil, dass es zu Daten-verlusten kommen kann, sollte das primäre Speichermedium ausfallen, bevor die Daten auf das sekundäre Speichermedium geschrie-ben wurden.

B

Backup/RestoreEin aus zwei Schritten bestehender Prozess. Informationen werden zunächst auf nicht-flüchtige Datenträger (Magnetplatten oder -bänder) geschrieben. Im Fall von Computer-problemen (z.B. Festplatten- oder Stromaus-fällen, oder auch Vireninfektionen), die Verluste oder Beschädigungen der ursprünglichen Daten zur Folge haben können, wird unverzüg-lich auf die Kopie zugegriffen, die dann auf einem funktionsfähigen System zurückgespei-chert wird.

BlockdatenRohdaten ohne ausgeprägte Dateistruktur. Datenbankapplikationen wie Microsoft SQL Server und Microsoft Exchange Server übertra-gen Daten in Blöcken. Die Blockübertragung ist

die effizienteste Möglichkeit zum Schreiben auf Plattenspeicher.

Business ContinuityDie Möglichkeit eines Unternehmens, auch nach einem Katastrophenfall (z.B. Feuer, Erd-beben, Wassereinbruch usw.) noch weiter arbeiten zu können. Erreicht wird dies durch die Bereitstellung redundanter Hardware und Software, den Einsatz fehlertoleranter Systeme sowie eine solide Backup- und Wiederherstel-lungsstrategie.

C

ClusterEine Gruppe von Servern, die in ihrer Gesamt-heit als ein einzelnes System fungieren, wodurch sie die Voraussetzungen für Lastaus-gleich und Hochverfügbarkeit schaffen. Ein Cluster kann an nur einem physikalischen Standort konzentriert sein (Basic Cluster), oder er kann über verschiedene Standorte verteilt sein, um ein Disaster Recovery zu ermögli-chen.

Compliance In der Terminologie der Datenspeicherung bezeichnet Compliance für die gesamte Wirt-schaft geltende behördliche Vorschriften und Bestimmungen, die Vorgaben zum Umgang mit Daten sowie zur Erfüllung dieser Auflagen machen. Organisationen und Unternehmen betrachten das Thema Compliance mit Sorge. Zum größten Teil liegt dies an immer mehr und zunehmend verschärften behördlichen Aufla-gen, zu deren Erfüllung die Organisationen häufig zu Investitionen in neue Technologien gezwungen sind.

Continuous Data Protection (CDP)Kontinuierlicher Datenschutz. Die Sicherung von Computerdaten durch eine entsprechende automatische Funktion, die jedes Mal ausge-führt wird, wenn Änderungen an diesen Daten

Glossar

Page 77: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

84 Glossar

vorgenommen werden. Diese ereignisgetrie-bene Sicherung erfolgt während der produkti-ven Arbeitszeit des Systems und kann eventuell Leistungseinbußen der IT-Infrastruktur verur-sachen.

D

DAS (Direct Attached Storage)Bei DAS handelt es sich um Festplattenres-sourcen, die mittels Anschlussmedien wie pa rallele SCSI-Kabel direkt mit einem Server verbunden sind. Dieser Direktanschluss ermög-licht einen schnellen Zugriff auf die Daten; allerdings ist ein Zugriff auf den direkt ange-schlossenen Speicher dann nur von dem ent-sprechenden Server aus möglich. Der Begriff DAS umfasst intern angeschlossene lokale Festplattenlaufwerke, extern angeschlossenen RAID- (Redundant Array of Independent Disks) oder JBOD-Speicher (Just a Bunch Of Disks). Auch Fibre Channel kann für DAS genutzt wer-den, üblicher ist der Einsatz dieser Technik allerdings in Speichernetzen (Storage Area Networks, SANs).

Daten-DeduplizierungBei der Deduplizierung wird der ankommende Datenfluss in Segmente zerlegt, wobei die ein-zelnen Segmente eindeutig identifiziert und mit zuvor gespeicherten Segmenten verglichen werden. Wenn ein ankommendes Datenseg-ment ein Duplikat eines bereits gespeicherten ist, wird es nicht noch einmal abgespeichert, sondern es wird eine Referenz (Pointer) zu ihm angelegt. Dieser Prozess arbeitet auf einer äußerst niedrigen Granularitätsstufe, um soviel Redundanz wie möglich feststellen zu können. Als Nachteile dieses Filterungsprozesses sind die Stichwörter Effizienz, Geschwindigkeit und Datengröße zu nennen.

Disaster RecoveryDie Wiederherstellung des IT-Betriebs nach dem Ausfall eines kompletten Standorts auf-grund einer Katastrophe oder aufgrund von Sabotage. Zu den Disaster-Recovery-Strate-gien gehören Replikation und Backup/Restore.

E

EthernetEine Datennetztechnik für lokale Netzwerke (LANs), die in der Regel mit 10 Megabit pro Sekunde (mbps) arbeiten und verschiedene physikalische Medien wie Koaxialkabel, geschirmte oder ungeschirmte Twisted-Pair-Kabel sowie Glasfaserkabel nutzt. Die techni-sche Entwicklung in der Zukunft verlangt nach Ethernet-Versionen mit 1, 10 and 100 Gigabit pro Sekunde. Zuständig für die Ethernet-Stan-dardisierung ist der IEEE 802.3-Ausschuss.

F

FailoverIm Fall einer physikalischen Störung einer Netzwerkkomponente werden die Daten unverzüglich auf einen alternativen Pfad umgeleitet, sodass die jeweiligen Dienste ohne Unterbrechung weiter erbracht werden kön-nen. Failover erfolgt im Rahmen von Clusterlö-sungen oder mittels redundanter Speicher-pfade. Bei Clusterlösungen werden bei einem Ausfall ein oder mehrere Dienste (wie z.B. Exchange) auf einen Standby-Server umgelegt. Bei Bereitstellung redundanter Speicherpfade führt der Ausfall eines Pfads dazu, dass Daten auf eine alternative physikalische Verbindung zum Speicher umgeleitet werden.

FehlertoleranzFehlertoleranz ist die Möglichkeit von Compu-terhardware oder -software, im Fall von Hard-wareausfällen die Integrität der Daten sicher-zustellen. Merkmale der Fehlertoleranz sind in vielen Server-Betriebssystemen anzutreffen. Solche Merkmale sind gespiegelte Volumes, RAID-Volumes und Server-Cluster.

Fibre Channel (FC)Eine schnelle Übertragungstechnik, die inner-halb von Speichernetzen (SANs) für die Verbin-dung von Servern mit den Speicherressourcen eingesetzt wird. Zu den Fibre Channel-Kompo-nenten zählen HBAs, Hubs, Switches und die

Page 78: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Glossar 85

Verkabelung. Die Bezeichnung Fibre Channel bezieht sich auch auf das Übertragungsproto-koll.

Fibre Channel over Ethernet (FCoE)Eine Technologie, bei der Fibre Channel-Frames in Ethernet-Frames eingekapselt sind. Sie ermöglicht den Transport von FC-Daten über Ethernet-Netzwerke. Standardisierungen sind in verschiedenen Normungsausschüssen in Arbeit. Produkte werden für 2009/2010 erwar-tet. FCoE könnte eine Alternative zur klassi-schen Fibre Channel-Technologie darstellen.

G

Global File SystemIn manchen Konfigurationen, z.B. bei Clustern oder NAS-Systemen, ist es hilfreich, eine Mög-lichkeit zu haben, mit der die Dateisysteme auf verschiedenen Servern oder Speichergeräten wie ein einziges Dateisystem aussehen. Mit einem globalen oder verteilten Dateisystem könnten Speicheradministratoren auf globaler Ebene Dateisysteme aufbauen oder Änderun-gen an ihnen vornehmen. Bisher ist dies noch eine erst im Aufbruch stehende Technologie.

H

HBA (Host Bus Adapter)Ein HBA ist die intelligente Hardware auf dem Host-Server, die die Übertragung von Daten zwischen dem Host und dem Ziel-Speichersys-tem steuert.

Hierarchisches Speichermanagement (HSM)Ein Datenspeicherungssystem, das automa-tisch Daten zwischen kostenintensiveren und preisgünstigeren Speichermedien verschiebt. HSM verdankt seine Existenz der Tatsache, dass schnelle Speichermedien wie Enterprise Disk Drives (Fibre Channel, SAS) teurer pro gespei-chertem Byte sind als langsamere Geräte wie zum Beispiel Festplatten mit geringerer Geschwindigkeit (SATA-, Desktop-Festplatten) oder Magnetbandlaufwerke. Der Idealfall wäre

es zwar, alle Daten jederzeit auf schnellen Speichergeräten zur Verfügung zu haben; eine solche Lösung ist jedoch für viele Organisatio-nen nicht bezahlbar. So speichern HSM-Sys-teme den Großteil der Unternehmensdaten auf langsameren Medien und kopieren die Daten bei Bedarf auf schnellere Festplatten.

HochverfügbarkeitEin kontinuierlich verfügbares Computersys-tem ist eines, das über den Verlauf eines Jahres gesehen so gut wie keine Ausfallzeiten auf-weist. Ein System mit einer Verfügbarkeit von 99,999% hat eine Ausfallzeit von nur fünf Minuten. Ein hoch verfügbares System ist dagegen als ein System definiert, das eine Laufzeit von 99.9 % aufweist; dies bedeutet, dass im Laufe eines Jahres einige wenige Stun-den an geplanter oder ungeplanter Ausfallzeit auftreten können.

I

ILM (Information Lifecycle Management)ILM beschreibt eine Speicherstrategie. Ziel von Information Lifecycle Management (ILM) ist es, die richtigen Daten zum richtigen Zeitpunkt dort verfügbar zu machen, wo sie benötigt werden – und das zu den geringst möglichen Kosten. Hierzu wird der gesamte Lebenszyklus der Informationen von der Erstellung über die Nutzung bis zu ihrer Löschung betrachtet. Manchmal auch als „Data Lifecycle Manage-ment“ bezeichnet.

iSCSI (Internet SCSI)Ein Protokoll für den Transport von Blockdaten über IP-Netzwerke, ohne dass eine spezielle Netzwerkinfrastruktur wie beispielsweise Fibre Channel benötigt wird.

ITIL (Information Technology Infrastructure Library)ITIL ist eine Dokumentation von Best Practices für das IT Service Management, die von vielen hundert Organisationen in der ganzen Welt angewandt wird. Die Richtlinien in den ITIL-Publikationen und die begleitenden Qualifizie-

Page 79: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

86 Glossar

rungsschemata stellen inzwischen die Grund-lage einer kompletten ITIL-Philosophie dar. ITIL besteht aus einer Reihe von Publikationen mit Richtlinien zur Bereitstellung qualitativ hoch-wertiger IT-Services sowie zum Umfeld der IT. ITIL wurde im Hinblick auf die zunehmende Abhängigkeit der Unternehmen und Organisa-tionen von der IT entwickelt und verkörpert Best Practices für das IT Service Management. ITIL kommt häufig zur Anwendung, wenn ver-schiedene Unternehmen zusammenarbeiten, und kann auch Fusions- und Übernahmepro-zesse erleichtern.

J

JBOD (Just a Bunch of Disks)Wie der Name (Englisch für „nur ein Haufen Festplatten“) schon sagt, eine Gruppe von Festplatten in einem gemeinsamen Gehäuse. JBOD unterscheidet sich von RAID, indem es keine Speichercontroller-Intelligenz besitzt und keine Datenredundanz realisiert.

L

LANLocal Area Network. Hardware und Software zur Verbindung von Personal Computern und Peripheriegeräten innerhalb enger geografi-scher Grenzen – in der Regel nicht über ein Gebäude oder eine Gruppe zusammenhängen-der Gebäude hinausgehend.

Load Balancing (Lastverteilung)Die Umverteilung von Lasten (Schreib-/Lese-Anforderungen) zwischen den Servern und Speichergeräten auf alternativen Pfaden. Load Balancing trägt zur Erhaltung einer leistungs-starken Vernetzung bei.

LTOLinear Tape Open. Ein offener Standard für eine Familie von Halb-Zoll-Magnetbandlaufwerken im Ultrium-Format – Kassettenlaufwerke für hohe Kapazitätsanforderungen.

LUN (Logical Unit Number)Eine LUN ist das Ergebnis einer konzeptuellen Aufteilung (eine Untereinheit) einer Festplatte oder einer Reihe von Festplatten. Eine LUN kann direkt einem Volume-Laufwerk entspre-chen (zum Beispiel dem Volume C:). Jede „logi-sche Einheit“ hat eine Adresse, die „Logical Unit Number“ (LUN), die ihre eindeutige Identifizie-rung ermöglicht.

LUN-MaskingDas LUN-Masking schreibt in SCSI-, iSCSI oder Fibre Channel-Systemen vor, welcher Rechner welches Disk-Subsystem sehen darf. Die Logi-cal Unit Numbers (LUNs) der einzelnen Sys-tembestandteile durchgehen quasi einen Filter, bevor Rechner sie sehen dürfen (oder nicht). Das LUN-Masking ähnelt dem Zoning, ist aber im Storage Array und nicht im Switch reali-siert.

M

MANMetropolitan Area Network. Ein Netzwerk für die High-Speed-Kommunikation über Distan-zen von bis zu ca. 80 Kilometern.

MetadatenInformationen zu einer Datei, die aber getrennt von den Daten in dieser Datei gehalten wer-den. Metadaten werden zur Identifizierung von Daten in der Datei und ihrer physikalischen Speicherstelle auf einem Datenträger benötigt.

Mirroring (Spiegelung)Eine Methode zur Erzielung von Plattendaten-Redundanz, bei der Daten identisch und ent-weder synchron oder asynchron auf unter-schiedlichen Festplatten aufgeschrieben wer-den. Mirroring dient zur Erhaltung der Daten bei Ausfällen von Plattenlaufwerken. Wenn die primäre Platte im Offline-Zustand ist, über-nimmt die andere Platte und stellt so die Kon-tinuität des Datenzugriffs sicher. Spiegelung wird normalerweise für geschäftskritische Daten eingesetzt; es ist als RAID-Level 1 klassi-fiziert und verdoppelt die Festplattenkosten.

Page 80: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Glossar 87

N

NAS (Network Attached Storage)Ein NAS-Gerät ist ein System, das speziell für das Speichern von Filedaten (im Gegensatz zu Blockdaten) konzipiert ist. Network Attached Storage ist direkt im lokalen Netzwerk (LAN) über LAN-Protokolle wie TCP/IP zugänglich. Vgl. DAS und SAN.

P

PartitionEine Partition ist ein Teil einer physikalischen Festplatte oder LUN, der so funktioniert, als sei er eine eigenständige physikalische Festplatte. Nachdem eine Partition erstellt wurde, muss sie formatiert werden und einen Laufwerks-buchstaben erhalten, bevor Daten auf ihr abgespeichert werden können.

PortDer physikalische Verbindungspunkt eines Computers, Switch, Storage Array usw., über den der Anschluss an andere Geräte innerhalb eines Netzwerks erfolgt. Ports eines Fibre Channel-Netzwerks werden jeweils durch ihren Worldwide Port Namen (WWPN) identifiziert; Ports in iSCSI-Netzwerken erhalten in der Regel einen iSCSI-Namen. Verwechslungen mit TCP/IP-Ports sind zu vermeiden; diese dienen als den IP-Adressen zugewiesene virtuelle Adressen.

R

RAID (Redundant Array of Independent Disks)Eine Möglichkeit zur mehrfachen Speicherung von Daten auf verschiedenen physikalischen Festplatten. Damit wird sichergestellt, dass bei Ausfall einer Festplatte an ihrer Stelle eine re -dundante Kopie der entsprechenden Daten verfügbar bleibt. Beispiele für verwendete Technologien sind u.a. RAID 1 (Spiegelung) und RAID 5.

RedundanzDie Duplizierung von Informationen oder Hardware-Komponenten, um sicherzustellen, dass bei Ausfall einer primären Komponente eine sekundäre Ressource deren Funktion übernehmen kann.

ReplikationReplikation ist der Prozess der Duplizierung geschäftskritischer Daten von einer hochver-fügbaren Stelle an eine andere. Die Replikation kann synchron oder asynchron erfolgen. Je nach Art der Kopie werden Duplikate als Klone, Point-in-Time-Kopien oder Snapshots bezeich-net.

S

SAN (Storage Area Network)SAN ist ein spezialisiertes Netzwerk für den Zugriff auf hochleistungsfähige und hochver-fügbare Speichersubsysteme mittels Protokol-len zur blockbasierten Speicherung. Das SAN besteht aus speziellen Geräten wie Host Bus Adapter (HBAs) in den Host-Servern, Switches für das Routing des Datenverkehrs und Plattenspeicher-Subsystemen. Hauptmerkmal eines SAN ist, dass die Speichersubsysteme im allgemeinen mehreren Hosts gleichzeitig für Zugriffe zur Verfügung stehen, was sie skalier-bar und flexibel macht. Vgl. NAS und DAS.

SAS/SATASAS: Serial Attached SCSI. Während SATA (Serial ATA oder Serial Advanced Technology Attachment) für Desktops konzipiert und eine gute Wahl für Speicherumgebungen ist, bei denen Einfachheit der Konfiguration oder ein optimales Kosten-/Kapazitätsverhältnis hohe Priorität haben, bietet SAS die für Mainstream-Server und Enterprise-Storage-Lösungen geforderte Leistungsstärke, Skalierbarkeit und Zuverlässigkeit.

SCSI (Small Computer System Interface)Eine Reihe von Standards zur Kommunikation von Computern mit angeschlossenen Geräten wie z.B. Speichermedien (Festplattenlaufwerke,

Page 81: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

88 Glossar

Tape Libraries usw.) und Druckern. Die Bezeich-nung SCSI steht auch für eine Parallelan-schlusstechnologie, bei der das SCSI-Protokoll eingesetzt wird. SCSI gibt es in zwei Varianten: Paralleles SCSI und Serial Attached SCSI. Paral-leles SCSI ist seit mehr als 20 Jahren der Stan-dard bei der Konnektivität; es ist bekannt für seine Stabilität und Zuverlässigkeit. Serial Attached SCSI (SAS) ist die neueste SCSI-Gene-ration; es unterstützt sowohl Serial ATA- (SATA-) als auch SAS-Laufwerke.

SnapshotEin Snapshot ist eine virtuelle Kopie einer Datei zum Zeitpunkt der Snapshot-Erstellung. Es handelt sich dabei nicht um eine Kopie der Daten, sondern lediglich um eine Abbildung der Datenorganisation zu einem bestimmten Zeitpunkt. Snapshots können gemäß einem Zeitplan vorgenommen werden und bieten eine durchgängige Ansicht eines Dateisystems. Sie bieten eine Grundlage, auf der ein Backup- und Recovery-Programm aufsetzen kann.

Solid State Disk (SSD)Eine Solid State Disk ist ein hochleistungs-fähiges Plug-and-Play- Speichermedium, das keine beweglichen Teile enthält. Zu den SSD-Komponenten gehören DRAM- bzw. EEPROM-Speicherplatinen, Memory Bus Boards, CPUs oder Akkukarten. Da sie ihre eigenen CPUs für das Management der Datenspeicherung ent-halten, sind sie wesentlich schneller als konventionelle rotierende Festplatten; sie bie-ten somit die höchst möglichen I/O-Ge- schwindigkeiten. SSDs sind am effektivsten für Serveranwendungen und Serversysteme, bei denen die I/O-Reaktionszeiten eine kritische Rolle spielen. Auf SSDs wird besonders all das gespeichert, was Engpässe verursachen kann, z.B. Datenbanken, Swap-Dateien, Library- und Index-Dateien, sowie Authorisierungs- und Anmeldeinformationen.

Storage-ControllerStorage-Controller bieten Funktionen wie RAID, I/O-Routing sowie Fehlererkennung. Der Controller stellt die Intelligenz für das Spei-chersubsystem zur Verfügung. Jedes Speicher-

subsystem beinhaltet einen oder mehrere Sto-rage-Controller.

Storage Resource Management (SRM)Bezeichnung für Software, die Speicherres-sourcen im Hinblick auf Kapazität, Auslastung, Richtlinien und Event-Management verwaltet. Dies beinhaltet Funktionen zu Verrechnung, Überwachung, Reporting und Analysen zu Per-formance- und Verfügbarkeitsuntersuchun-gen. Zu den Kernelementen von SRM gehören Asset Management, Verrechnung, Kapazitäts-management, Konfigurationsmanagement, Daten- und Medienmigration, Ereignisma-nagement, Performance- und Verfügbarkeits-management, Policy-Management, Kontin-gentmanagement und Datenträgermanage-ment.

SwitchEin intelligentes Gerät innerhalb des Netz-werks, das für das möglichst schnelle Routing von Daten von der Quelle (beispielsweise einem Server) zu einem Ziel (zum Beispiel einem bestimmten Speichermedium) zuständig ist. Switches unterscheiden sich in ihren Möglich-keiten; ein Switch der Director-Klasse bei-spielsweise ist ein High-End-Switch mit hoch entwickelten Management- und Verfügbar-keits-Funktionen. Switches werden für TCP/IP- und Fibre Channel-Netzwerke angeboten.

Synchrone ReplikationBei der synchronen Replikation muss jedes Schreiben auf die primäre sowie die sekundäre (räumlich entfernte) Festplatte abgeschlossen sein, bevor mit dem nächsten Schreibvorgang begonnen werden kann. Der Vorteil dabei ist, dass die beiden Datensätze jederzeit synchro-nisiert sind. Der Nachteil: Bei großen Distanzen zwischen den beiden Speicherplatten kann der Replikationsprozess lange andauern und so zu Verzögerungen bei der Anwendung führen, mit der die Daten geschrieben werden. Siehe auch asynchrone Replikation.

Page 82: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Glossar 89

T

Tape LibraryEine Tape Library besteht aus mehreren Mag-netband- und Magnetbandkassettenlaufwer-ken. Eine automatische Tape Library ist eine Hardwarekomponente, die mehrere Bandlauf-werke für das Lesen und Schreiben von Daten, Ports für das Einlegen und Entnehmen von Bändern sowie einen Roboter für das Laden und Entladen von Bandkassetten ohne Bedie-nereingriff beinhaltet. „Laden“ bedeutet, dass Dateien in einer Dateisystem-Struktur einem Nutzer oder einer Gruppe von Nutzern zur Ver-fügung gestellt werden.

TargetEin Target ist das Gerät, das Ziel einer Daten-übertragung durch den Initiator ist. Meistens ist das Target das Storage Array; die Bezeich-nung wird aber auch auf Bridges, Tape Libra-ries, Bandlaufwerke oder andere Geräte ange-wandt.

TCP/IPTransmission Control Protocol/Internet Proto-col. Eine Reihe von Protokollen der Transport- und Netzwerkschicht, die unter der Schirm-herrschaft des U.S. Department of Defense entwickelt wurden. TCP/IP hat sich zum Defacto-Standard für die Kommunikation zwi-schen Unix-Systemen – besonders über Ether-net – entwickelt.

Thin ProvisioningThin Provisioning wird meist in großen zentra-lisierten Speichersystemen wie z.B. SANs, aber auch in Speichervirtualisierungsumgebungen eingesetzt, wo Administratoren die aktuellen und zukünftigen Speicheranforderungen pla-nen und häufig zu viel Kapazität einkaufen, die dann zum Teil brach liegt. Thin Provisioning ist dagegen speziell so konzipiert, dass nur exakt das an Kapazität zugewiesen wird, was wirk-lich gebraucht wird und wann es wirklich gebraucht wird. Somit wird die Verschwen-dung von Speicherkapazität verhindert. Außer-dem können bei mehr Speicherbedarf dem

vorhandenen konsolidierten Speichersystem zusätzliche Volumes hinzugefügt werden.

Tiered StorageDaten werden nach ihrem Verwendungszweck gespeichert. So werden beispielsweise Daten, die für die Wiederherstellung im Fall von Datenverlusten oder -verfälschungen benötigt werden, lokal gespeichert, um ein schnelles Zurückspeichern möglich zu machen. Im Rah-men behördlicher Auflagen benötigte Daten werden dagegen auf kostengünstigeren Fest-platten gespeichert.

V

VirtualisierungBei der Datenspeicherung ist die Virtualisie-rung ein Mittel, um eine Vielzahl physischer Speichermedien als eine einzige logische Ein-heit zu behandeln. Virtualisierung lässt sich als „in-band“ (also innerhalb des Datenpfades) oder „out-of-band“ realisieren. Bei der Out–of–Band-Virtualisierung kommt es nicht zu einer Konkurrenzsituation hinsichtlich der Nutzung der Host-Ressourcen. Bei der Virtua-lisierung der Speicherressourcen spielt es keine Rolle, ob diese per DAS, NAS oder SAN bereit-gestellt werden.

VTL (Virtual Tape Library)Eine intelligente festplattenbasierte Library, die traditionelle Magnetbandlaufwerke und Mag-netbandformate emuliert und dabei praktisch wie eine Tape Library mit der Leistung moder-ner Festplatten funktioniert. Dabei werden Daten auf Festplatten genauso wie sonst auf Tape Libraries abgelegt, nur schneller. Virtual-Tape-Backup kann als Übergangslösung vor dem endgültigen Schreiben auf „echten“ Band-speichern oder als endgültige Standalone-Lösung eingesetzt werden. Eine VTL besteht in der Regel aus einer Virtual Tape Appliance oder einem Virtual Tape Server sowie Software, die konventionelle Magnetbandgeräte und -for-mate emuliert.

Page 83: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

VolumeEin Volume ist ein Speicherbereich auf einer Festplatte. Es wird mit einem Dateisystem for-matiert und erhält typischerweise einen Lauf-werksbuchstaben. Eine einzelne Festplatte kann verschiedene Volumes besitzen, während einzelne Volumes sich umgekehrt über meh-rere Festplatten erstrecken können.

Z

ZoningEine Methode zur Verhinderung von Serverzu-griffen auf Speicherressourcen, die dem jewei-ligen Server nicht zugewiesen sind. Das Zoning ähnelt dem LUN-Masking, ist aber im Switch realisiert, außerdem erfolgt das Zoning über die Port-Identifizierung (entweder per Port-nummer auf dem Switch oder über die WWPN der Initiatoren und Targets).

(Quellen: Adaptec, Fujitsu Siemens Computers, Horison Information Strategies, Microsoft, SNIA, Webopedia, ZAZAmedia)

Page 84: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Informationsinfrastrukturen in Unternehmen

Das Prinzip des wirtschaftlichen Handelns erfordert in Unternehmen zunehmend einen effizienten Umgang mit Informationen vor dem Hintergrund eines durch-schnittlichen Wachstums von 60 Prozent pro Jahr. Dieses Kapital optimal zu nut-

zen, zu schützen, zu verwalten, zu speichern und zu archivieren hat sich EMC mit seinen Lösungen zur Aufgabe gemacht. Damit läutet EMC einen Paradigmenwechsel ein, indem es anstelle der Applikationen die Information selbst ins Zentrum der Infrastruktur rückt. Die Anforderungen an die Infrastruktur richten sich dementsprechend am Weg der Information im Unternehmen aus: von der Entstehung und Erfassung über die Verwer-tung bis hin zur Archivierung und Löschung. Die optimale Strategie für den Aufbau einer Informationsinfrastruktur beinhaltet intelligentes Speichern der Daten, den Schutz gegen Datenverlust und -missbrauch, die Optimierung der Infrastruktur, des IT-Manage-ments und der Services sowie die Nutzung des Wertschöpfungspotenzials von Informa-tionen. Neben dem obersten Ziel der Kostenreduzierung wollen die Unternehmen vor allem gesetzliche Anforderungen besser erfüllen sowie die Geschäftsprozesse des Unternehmens besser unterstützen. Damit stehen die geschäftlichen Anforderungen an die IT bei den Zielen deutlich höher als technologische Ziele wie „bessere Datensicher-heit“ oder „besser strukturierte Daten“.

EMC Hardware und Software zum Aufbau Ihrer Informationsinfrastruktur

Ihr Unternehmen verändert sich ständig – EMC begleitet Sie dabei. Von Festplattenbi-bliotheken bis zu Content Management-Systemen und SANs, viele Unternehmen ent-

scheiden sich seit Jahren für unsere Produkte.EMC bietet die Software, Systeme, Sicherheit und die Services, die Sie benötigen, um

ein intelligenteres Konzept für die Speicherung zu entwickeln, das effektiv, kostengüns-tig und anwenderfreundlich ist und Ihnen die nötige Flexibilität bietet, um gemeinsam mit Ihrem Unternehmen wachsen zu können.

Zu einer intelligenteren Speicherung gehört mehr als nur eine Lösung. Ein besseres Konzept für das Informationsmanagement ist erforderlich. Dies kann durch die Imple-mentierung mehrerer Schlüsselinitiativen erreicht werden. Aufgrund der jahrelangen

Page 85: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

92 EMC

Erfahrung hat EMC sechs wesentliche Bereiche identifiziert, die ihnen helfen können, intelligenter zu speichern.

Sechs Ansätze für eine intelligentere Speicherung

1. Klassifizieren Sie Ihre Daten und stellen Sie Tiered Storage bereit.Nicht alle Daten sind gleich. Tatsächlich ist jedes Byte der Daten in Ihrem Unternehmen anders – es wird unterschiedlich häufig darauf zugegriffen. Und bei einem Ausfall sind auch die Anforderungen an die Wiederherstellungszeit verschieden. Deshalb ist es sehr wichtig, auf dem Weg zur intelligenteren Speicherung mit der Klassifizierung der Daten entsprechend der jeweiligen Zugriffsanforderungen zu beginnen. Sobald Sie damit angefangen haben, Ihre Daten zu bewerten, werden Sie merken, dass ein „Einer für alle“-Ansatz zur Datenspeicherung nicht mehr sinnvoll ist. Stattdessen bietet die Bereit-stellung von Tiered Storage den nötigen Rahmen und die Prozesse, um Informationen auf dem richtigen Speichertyp zum richtigen Zeitpunkt bereitzuhalten, und so die Fähigkeiten an den Anforderungen auszurichten und letztlich die Total Cost of Owner-ship (TCO) zu senken.

EMC bietet eine Reihe von skalierbaren, anwenderfreundlichen Speicherplattformen sowie Software und Services, um Unternehmen wie Ihres bei der erfolgreichen Daten-klassifizierung und beim Aufbau einer mehrstufigen Speicherinfrastruktur zu unter-stützen. Zu unserem Portfolio gehören die EMC® Symmetrix®, die EMC CLARiiON® (Fib-reCAT CX) und die EMC Celerra®. Alle EMC Speicherplattformen können mit einer Kom-bination aus Laufwerken mit hoher Performance und Low-Cost-Laufwerken mit hoher Kapazität innerhalb des gleichen Arrays bereitgestellt werden. Und alle Plattformen bie-ten umfangreiche Software-Funktionen, um das Verschieben, das Management und den Schutz wertvoller Daten zu vereinfachen. Unabhängig davon, ob Sie in Ihrem Unternehmen eine eher kleinere Lösung mit Tiered Storage benötigen, die innerhalb eines physischen Systems bereitgestellt wird oder ob Sie über eine größere Umgebung verfügen, die mehrere Speicherebenen erfordert – der Nutzen ist letztlich immer der Gleiche: Sie profitieren von geringeren TCO.

Page 86: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Informationsinfrastrukturen in Unternehmen 93

Vorher Nachher

Durch die Klassifizierung von Daten und die Bereitstellung von

Tiered Storage können Organisationen ihre TCO in der Regel

um 25 % verbessern.

Produktions-

daten

Tier 1

Tier 2

Tier 3

„Einer für alle“ „Tiered Storage“

EMC ist der Marktführer im Bereich IP-Speicherlösungen.Die weite Verbreitung der IP-Speichertechnologien – iSCSI und NAS für den Zugriff auf Speichersysteme – bietet Unternehmen aller Größen die Möglichkeit, effiziente und zuverlässige Speichernetzwerke kostengünstig aufzubauen und zu betreiben. Jetzt kön-nen Unternehmen bestehende IP-Technologien und IP-geschulte Mitarbeiter einsetzen, um ihre Speichernetzwerke bereitzustellen und zu betreiben. Insgesamt sind mit den Methoden, die die ausgereifte IP-basierte Speichertechnologie von heute bietet, Spei-cherkonsolidierungsergebnisse wesentlich einfacher und kostengünstiger zu erreichen.

EMC ist mit den Speicherfamilien Celerra NS, CLARiiON CX (FibreCAT CX) und Sym-metrix DMX der Marktführer im Bereich IP-Speicherlösungen. Gemäß IDC Research hat neben EMC und seinem breiten Netzwerk von EMC Velocity2 Partnern kein anderer Anbieter mehr IP-basierte Speicherlösungen bereitgestellt. Der Grund dafür: EMC bietet eine breite Palette flexibler Optionen, damit Unternehmen und Organisationen aller Größen von kosten-günstigen und anwenderfreundlichen IP-Speicherlösungen profi-tieren können – unabhängig davon, ob erstmalig ein Netzwerkspeicher-System bereit-gestellt oder Server und Anwendungen konsolidiert werden, die sich nicht auf vorhan-denen SANs befinden.

2. Erstellen Sie ein aktives Archiv.Wenn Informationen benötigt werden, müssen sie online und verfügbar sein – egal ob sie täglich oder für längerfristige Audit-Zyklen benötigt werden. Die aktive Archivierung eröffnet Ihnen die Möglichkeit, Daten, die nur selten genutzt werden, aus dem primären

Page 87: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

94 EMC

Speicher in eine kostengünstigere Speicherinfrastruktur zu verlagern. Der schnelle und einfache Zugriff bleibt dabei erhalten. Die EMC Centera® ist die erste Lösung für aktive Archivierung auf dem Markt, die speziell für die Speicherung und den Abruf von Fixed Content entwickelt wurde.

Indem statische oder selten benötigte Informationen aus der Produktionsspeicher-umgebung in ein aktives EMC Centera-Archiv migriert werden, wird wertvoller „Produk-tionsspeicherplatz“ frei, und die Anforderungen an Backup-Medien sinken in dem Maße, in dem statischer Content aus den täglichen oder wöchentlichen Backup-Prozessen entfernt wird. Zu Compliance-Zwecken bietet die EMC Centera auch eine garantierte Content-Authentizität, um die immer anspruchsvolleren behördlichen Auflagen zu erfüllen.

Vorher Nachher

In vielen E-Mail- oder Dateisystemumgebungen werden mehr

als 75 % der Daten nicht verändert – damit sind diese Daten

ideale Kandidaten für die aktive Archivierung.

Tier 1

Tier 2

Tier 3

Tier 1

Tier 2

Tier 3

Aktiv

es A

rchiv

3. Reduzierung/Eliminierung redundanter Daten.Einer der größten Kostentreiber im Bereich Speicher ist die Menge an Produktionsdaten, die gespeichert und gesichert werden müssen. Die Reduzierung oder Eliminierung von Duplikaten in Backup-Umgebungen ist ein zentraler Schritt auf dem Weg zur intelligen-teren Speicherung. Ein einfaches Beispiel: Ein E-Mail-Anhang wird verteilt und dann von 20 verschiedenen Anwendern gespeichert. Wie wirkt sich das aus? Speicherkapazi-täten, Netzwerkbandbreite und Backup-Medien werden um den Faktor 20 beansprucht – und das wäre nicht erforderlich. Denn mit der Deduplizierung der Daten sinken die Speicheranforderungen, Prozesse werden rationalisiert, die Backup-Zeiten verkürzen sich und die TCO werden insgesamt verbessert. EMC Technologie hilft proaktiv dabei, die

Page 88: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Informationsinfrastrukturen in Unternehmen 95

Menge der redundanten Daten, die eine Organisation erstellt, speichert und letztlich durch Backups sichert, zu reduzieren oder zu eliminieren. Die EMC Centera berechnet jedes Mal, wenn ein Objekt gespeichert werden soll, eine Content-Adresse. Wenn zum Beispiel zwei oder mehr Personen versuchen, den gleichen E-Mail-Anhang zu speichern, berechnet die EMC Centera jedes mal dieselbe Content-Adresse. Mit dieser Intelligenz stellt die EMC Centera einfach fest, dass mehrere Leute versuchen, dieselbe Datei zu speichern, und gibt jedem Anwender einen „Pointer“ auf die Datei, statt mehrere Kopien zu speichern. Dies minimiert die Informationsredundanz und den erforderlichen Spei-cherplatz.

EMC Avamar® Backup- und Recovery-Software kann die gleichen Ergebnisse für Ihre Backup-Daten erzielen. EMC Avamar nutzt globale Deduplizierungs-Technologie, um die unnötige Übertragung redundanter Backup-Daten über das Netzwerk und ihre sekundäre Speicherung zu verhindern. Durch die Deduplizierung über Standorte und Server hinweg können Sie die für Backups erforderliche Zeit, die Netzwerkauslastung und den Zuwachs an sekundärem Speicher erheblich senken.

Vorher Nachher

EMC Avamar erzielt eine Reduzierung der täglichenBackup-Daten bis zum Faktor 300 und bietet bis zu zehnMal schnellere Backups.

4. Schnellere Backups, schnellere Recovery.Durch die Erweiterung der Tiered Storage-Methode auf den Backup- und Recovery-Betrieb können Unternehmen die Geschwindigkeit und Zuverlässigkeit ihrer Backup- und Recovery-Prozesse drastisch verbessern. So bieten zum Beispiel festplatten-basierte

Page 89: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

96 EMC

Lösungen eine fünffache Verbesserung der Backup- und Recovery-Zeiten im Vergleich zu band-basierten Lösungen.

EMC bietet eine vollständige Lösung für Backup-to-Disk-Anforderungen, einschließ-lich Assessment Services zur Bewertung und Backup-Softwareanwendungen sowie eine breite Auswahl an LAN-basierten, SAN-basierten und Virtual Tape Library (VTL)-Lösungen, damit Sie eine höhere Performance und Zuverlässigkeit in Ihrer Backup- und Recovery-Umgebung realisieren können – unabhängig davon, wie Sie heute Ihre Back-ups managen. Alle EMC Speicherplattformen können mit Low-Cost-Laufwerken mit hoher Kapazität bereitgestellt werden, die sich ideal für Backup-to-Disk-Anwendungen eignen.

Vorher Nachher

Festplattenbasierte Lösungen bieten eine Verbesserungder Backup- und Recovery-Zeiten um den Faktor 5.

Backup-

Daten

Backup-

DatenTier 3

5. Nutzen Sie Platz sparende Snapshots zur Reduzierung von Kapazitätsanforderungen.

Das Erstellen vollständiger Kopien von Produktionsdaten war gängige Praxis beim Backup, dem Recovery sowie Tests von Anwendungsumgebungen. Da aber die Menge der Informationen weiter wächst, sind die Speicheranforderungen und Kosten, die mit dieser Vorgehensweise zusammenhängen, sprunghaft gestiegen, ebenso wie die Kapa-zitätsanforderungen zur Unterstützung der lokalen Replikationsaktivitäten. Heute ist die Nutzung Platz sparender Snapshots eine wesentlich intelligentere und kostengüns-tigere Alternative für den Schutz und die Wiederverwendung von Produktionsdaten. Insbesondere ermöglichen die Platz sparenden Merkmale logischer Snapshot-Kopien, das Unternehmen die Replikationsmöglichkeiten schneller und effektiver nutzen und

Page 90: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Informationsinfrastrukturen in Unternehmen 97

gleichzeitig die Kosten und Kapazitätsanforderungen senken, die mit dem herkömmli-chen Ansatz einhergehen.

Alle EMC Speicherplattformen bieten die Flexibilität, Array-basierte Full Copy Clones und lokale Snapshot-Replikation bereitzustellen – basierend auf Ihren Anwendungsan-forderungen und Nutzungsszenarien können Sie wählen, was Sie nutzen möchten. Da -rüber hinaus werden beide Optionen von wichtigen Anwendungen unterstützt und sind mit diesen integriert, wie z.B. Microsoft Exchange, SQL Server, Oracle und SAP.

Vorher Nachher

Snapshots bieten eine bis zu zehnfache Reduzierung derfür die lokale Replikation erforderlichen Kapazität.

Clones

Snaps

Snaps

Snaps

6. Stellen Sie Server- und Dateivirtualisierung bereit.IT-Teams sehen sich heute einer Vielzahl von Herausforderungen bei ihren physischen Server-Infrastrukturen gegenüber, angefangen bei mangelnder Auslastung und Server-„Wildwuchs“. Gemäß IDC nutzt ein typischer x86-Server nur zehn bis 15 Prozent seiner Gesamtkapazität, aber dennoch setzen Organisationen erhebliche Ressourcen für die Bereitstellung, Wartung und Sicherung einer zunehmenden Anzahl physischer Server ein.

Zu jedem Euro, der für neue Server ausgegeben wird, kommen acht Euro für das laufende Management hinzu (Quelle: IDC).

Durch die Nutzung der Virtualisierung zur Optimierung von Infrastrukturen auf der Serverebene können Unternehmen diese Herausforderungen meistern und die Effizienz verbessern.

Virtualisierung mit VMware® bietet eine grundlegend einfachere und effizientere Methode für das Management von Server-Infrastrukturen. Tatsächlich kann die Zeit für

Page 91: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

98 EMC

die Bereitstellung eines neuen Servers um bis zu 70 Prozent gesenkt werden, neue Anwendungen werden in Minuten bereitgestellt, und Zeit, die vorher mit manuellen, zeitraubenden Aufgaben verbracht wurde, kann jetzt für strategische Initiativen genutzt werden.

Darüber hinaus kann die Kapazität des Rechenzentrums ohne Unterbrechung ska-liert werden, und für alle Anwendungen kann die Verfügbarkeit zu vernünftigen Kosten sichergestellt werden.

Wenn Sie VMware Servervirtualisierung mit EMC Rainfinity® Global File Virtualiza-tion™ kombinieren, profitieren Sie zusätzlich von der Virtualisierung Ihrer unstruktu-rierten Datenumgebungen. Die Fähigkeiten der Global File Virtualization ermöglichen Ihnen, das Management zu vereinfachen, Daten ohne Unterbrechung zu verschieben, Performance-Engpässe zu beseitigen und die TCO durch eine Steigerung der Auslastung in heterogenen NAS-, CAS- und Dateiserver-Umgebungen zu senken.

Ihre wichtigsten Prioritäten im Blick.Bei EMC konzentrieren wir uns auf das, was für Sie am wichtigsten ist – zum Beispiel, wie Sie sicherstellen können, dass Ihre Informationen einfach zu managen sind, dass Sie die richtigen Schritte zur Energieeinsparung unternehmen und wie Sie Ihre wertvollen Informationen vor Risiken und Sicherheitslücken schützen.

EMC Lösungen vereinfachen das Speichermanagement.EMC hat sehr hohe Investitionen in die Entwicklung neuer und verbesserter Tools getä-tigt, um die Anforderungen der Anwender an ein rationalisiertes Speichermanagement zu erfüllen und die Bedienerfreundlichkeit über alle Plattformen hinweg zu verbessern.

EMC Lösungen können schnell bereitgestellt werden und bieten eine hohe Anwen-derfreundlichkeit sowie einfaches Management. So ermöglicht z.B. die Software Sym-metrixManagement Console sowie Celerra Manager und CLARiiON Navisphere® Mana-ger Anwendern, ein Terabyte Speicher in weniger als einer Minute zu konfigurieren und bereitzustellen. Und die EMC Centera beinhaltet Funktionen zur Selbstkonfiguration, Selbstheilung und zum Selbstmanagement, die es einem Administrator erlauben, die bis zu 50-fache Menge an Content zu managen.

Page 92: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Informationsinfrastrukturen in Unternehmen 99

Energieeffiziente Lösungen verbessern das Kostenmanagement.

Der Energieverbrauch von Rechenzentren ist heute ein wichtiger Aspekt. Strom-verbrauch und Kühlung können nicht unbegrenzt gesteigert werden, ein hoher Energiebedarf ist mit entsprechend hohen Kosten verbunden, und infolge von

Überlastungen des Stromnetzes kann es sogar zu Ausfällen kommen. Hochentwickelte Tools und Services von EMC helfen bei der Optimierung der Energieeffizienz in Ihrem Rechenzentrum. So verbrauchen zum Beispiel EMC Speicherplattformen weniger Ener-gie pro Terabyte als alternative Lösungen. Mit Hilfe des EMC Power Calculator können EMC Experten Ihnen Empfehlungen zur Reduzierung der Kosten für Energie und Küh-lung durch ein effizienteres Datenmanagement geben. Leistungsstarke Virtualisie-rungslösungen von EMC, wie etwa VMware, können Ihnen helfen, Server zu konsolidie-ren, um die Kapazitätsnutzung zu verbessern und nicht unbedingt erforderliche Infra-struktur zu eliminieren. Und schließlich unterstützt Sie der EMC Energy Efficiency Ser-vice dabei, Ihr Rechenzentrum mit maximaler Energieeffizienz zu betreiben. EMC bleibt innovativ und investiert weiterhin umfassend in Forschungs- und Entwicklungspro-gramme zur Senkung Ihrer Energie- und Kühlungskosten, damit Sie von einer immer größeren Energieeffizienz profitieren.

Speicherlösungen mit eingebauter Sicherheit.

Die meisten Unternehmen werden zustimmen: Informationen sind ihr wichtigstes Kapital. Im Jahr 2006 haben Unternehmen und Organisationen 45 Milliarden Dollar

für Sicherheitsprodukte ausgegeben; aber nur eines von fünf Unternehmen fühlt sich ausreichend geschützt – das haben entsprechende Studien ergeben. EMC bietet einen informationszentrierten Ansatz – wir bauen die Sicherheit direkt in unsere Produkte ein, statt sie im Nachhinein zu ergänzen. Dieser strategische Ansatz bietet unseren Kunden eine verbesserte Zugangskontrolle, eine besser gesicherte Infrastruktur, erweiterte Compliance sowie Audit-Fähigkeiten. Ihre Informationsinfrastruktur ist vor Sicherheits-risiken geschützt.

Machen Sie den nächsten Schritt.Mit flexiblen und kostengünstigen Lösungen zur Speicherkonsolidierung bietet EMC Unternehmen und Organisationen umfassendes Informationsmanagement – alles, was Sie benötigen, um intelligenter zu speichern. Aber Speichern ist nur ein Teil dessen, was wir tun – wir sehen unsere Aufgabe darin, Ihren Geschäftsablauf von Grund auf zu

Page 93: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

100 EMC

verbessern. Wir bieten Unternehmen und Organisationen Lösungen mit folgenden Schwerpunkten:• Backup, Recovery und Archivierung• Sicherstellung des effektiven und kostengünstigen Schutzes Ihrer Informationen• Virtualisierung von Informationsinfrastrukturen• Automatisierung der Abläufe im Rechenzentrum• Sicherung kritischer Ressourcen• Nutzung von Content zur Erzielung von Wettbewerbsvorteilen• Schneller geschäftlicher Nutzen aus geschäftskritischen Anwendungen,

wie z.B. Microsoft Exchange, SQL Server, Oracle und SAP

Partnerschaft EMC und Fujitsu Siemens Computers

„Seit nunmehr fast zehn Jahren arbeiten EMC und Fujitsu Siemens Computers in einer verläßlichen Partnerschaft, die auf gegenseitigem Vertrauen und technologischer Inno-vation aufbaut. Ein wesentlicher Grund für unseren gemeinsamen Erfolg ist das kombi-nierte Know-how sowohl der Vertriebs- als auch der technischen Teams, die unseren gemeinsamen Kunden stets geholfen haben, auch die größten Herausforderungen erfolgreich zu bewältigen. Die Verbindung aus den vernetzten Storage-Systemen und der Software von EMC mit den Servern von Fujitsu Siemens Computers macht ein breit gefächertes Angebot durchgängiger Lösungen möglich. Die EMC-Technologie spielt in der Dynamic Data Center Vision von Fujitsu Siemens Computers eine tragende Rolle, daher setzen wir auch weiterhin gemeinsam unseren ganzen Ehrgeiz daran, den Kun-den die umfassendste Lösungspalette der gesamten Branche zu bieten.“ 2007, Joe Tucci, Präsident & CEO von EMC.

Gemeinsame Stärken von Fujitsu Siemens Computers und EMC: • EMC Storage integriert mit Fujitsu Siemens Computers FlexFrame Infrastructure • Fujitsu Siemens Computers CentricStor ist verfügbar im EMC Select Reseller Programm • Fujitsu Siemens Computers Infrastructure Services ist akkreditiertes Mitglied

des EMC Authorized Service Network (ASN) Program• EMC Storage Integration mit Microsoft wird über Fujitsu Siemens Computers

BladeFrame Technologie realisiert • Gemeinsame Lösung für Grid Computing basiert auf Fujitsu Siemens Computers

PRIMERGY Serversystemen • OEM- und Reseller-Vereinbarungen für EMC Networker

Weitere Informationen über EMC Lösungen finden Sie unter www.emc2.de

Page 94: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

DATA CENTER FABRIC

8 Gbit/s Fibre Channel als End-to-End-Lösung im Rechenzentrum

Brocade ist weltweit führend bei Speichernetzwerklösungen, mit denen Unterneh-men ihre Informationen miteinander verbinden, sie verteilt nutzen sowie verwal-ten können. Mit Produkten und Services von Brocade sind Unternehmen besser in

der Lage, ihre IT-Infrastrukturen zu optimieren und ein Datenmanagement zu realisie-ren, das allen Compliance-Anforderungen entspricht. Alle Produkte von Brocade wur-den von Fujitsu Siemens Computers nach intensiven Tests zertifiziert. Sie garantieren damit eine nahtlose Integration in die umfassenden und führenden Infrastrukturlösun-gen von Fujitsu Siemens Computers.

Mit dem fortschreitenden Wachstum von Rechenzentren und der Einführung neuer Technologien wie Server- und Fabric-Virtualisierung wächst der Bedarf an einer leis-tungsfähigeren Speichervernetzung und an mehr Leistung der Rechenzentrums-Fabric. Die neue Familie von Brocade Fibre Channel (FC) Switches setzt den Standard bei der FC-Übertragungsgeschwindigkeit von bisher 4 Gbit/s um das Doppelte auf 8 Gbit/s her-auf und erfüllt so die heutigen und in naher Zukunft zu erwartenden Anforderungen der Speichervernetzung. Neue Brocade 8 Gbit/s Host Bus Adapter in Verbindung mit Brocade 8 Gbit/s-Fabrics bieten höchste Leistung und fortschrittliche Funktionalität auf einer End-to-End-Basis.

Einleitung

Im Januar 2008 führte Brocade für den Brocade 48000 Director und für den DCX Back-bone die 8 Gbit-Technologie ein. Brocade baute somit seine Führungsposition mit

einer kompletten neuen Familie an 8 Gbit/s-Switches aus, die in einer großen Band-breite von Rechenzentrumsumgebungen, vom Großunternehmen bis hin zu kleineren und mittleren Unternehmen (KMU), zum Einsatz kommen. Außerdem bringt Brocade seine 8 Gbit/s Host Bus Adapter (HBAs) an den Start und stellt damit die erste durch-gängige 8 Gbit/s-Lösung für KMUs ebenso wie Großunternehmen bereit. Den Kern die-ser Hochleistungslösungen stellt eine neue 8 Gbit/s-ASIC-Familie dar, die Daten weitaus effizienter verarbeitet und übermittelt als zuvor. Diese ASICs zeichnen sich aber nicht nur durch einen verdoppelten Durchsatz aus, sondern weisen auch neue Leistungs-

Page 95: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

102 Brocade

merkmale auf, die den wachsenden Ansprüchen der Rechenzentren im Hinblick auf Automatisierung von IT-Prozessen, Energieeffizienz und reduziertem Betriebsaufwand entgegenkommen.

Die Entwicklung bei der Fibre Channel-Technologie war im letzten Jahrzehnt durch ein kontinuierliches Performance-Wachstum und ständig neue Funktionalitäten gekennzeichnet. Die Transportgeschwindigkeit verdoppelte sich dabei zunächst von 1 auf 2 und dann von 2 auf 4 Gbit/s, und die Speicheradministratoren nutzten schnell die neuen Performance-Kapazitäten und die innovativen Funktionalitäten, um ihre Spei-chernetzwerke weiter zu optimieren. Die Einführung der Brocade 8 Gbit/s-Switches und -HBAs erlaubt jetzt die umfassende und durchgängige Integration innovativer Funktio-nalitäten von der Fabric bis hin zur Server-Plattform. Bei Ihren Überlegungen, wo Sie Ihre eigene Umgebung mit mehr Performance und Kapazität ausstatten können, sollten Sie Folgendes berücksichtigen:

• Speicherwachstum. Die Speicherkapazität bei den Storage Area Networks (SAN) ist in fast allen Rechenzentren Jahr um Jahr enorm gewachsen. Wenn die SAN-Speicher-kapazität zunimmt, dann wachsen auch die Fabrics, die die Speicherressourcen mit den Servern verbinden.

• Große Fabrics. Immer größere Fabrics verlangen auch immer mehr Inter-Switch Links (ISLs), um mit dem Speicher- und Serverwachstum Schritt zu halten.

• Mehr Leistung. In großen Rechenzentren ermöglicht der Umstieg von SAN-Bandbrei-ten-intensiven Hosts auf die 8 Gbit/s-Technologie den Servern ein Mehr an Leistung bei weniger HBAs und einer reduzierten Verkabelungsinfrastruktur.

• Servervirtualisierung. Wenn auf nur einer Host-Plattform mehrere Betriebssystemin-stanzen betrieben werden, steigen dadurch die Ansprüche an die I/O-Speicherkapazität dramatisch an, wodurch wiederum der Host-SAN-Durchsatz steigt.

• Tiered Services. In einem Shared Environment, in der die IT ihre Leistungen vielleicht an ihre internen Kunden weiterberechnet, setzt ein Tiered-Services-Modell die Mög-lichkeit voraus, Service Level für gehostete Applikationen zu definieren und diese Services durchgängig zu überwachen — Voraussetzungen, die die Brocade 8 Gbit/s-Lösungen erfüllen.

• Backup. Die Sicherung großer Datenmengen auf Band oder Platte erfordert maximale SAN-Geschwindigkeiten, um Backup-Fenster einhalten zu können.

• Flexibilität. Auch wenn noch nicht alle Hosts, Speichersysteme und ISLs die maxima-len Geschwindigkeitskapazitäten ausnutzen müssen, ist der Aufbau von Rechenzen-trums-Fabrics weitaus einfacher, wenn Hochgeschwindigkeits-Fabrics vorhanden sind.

• Investitionsschutz. Bereits vorhandene SANs bieten mit einer Port-Geschwindigkeit von 8 Gbit/s weitaus mehr Möglichkeiten. Integrierte Routing- und Adaptive Net-

Page 96: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

8 Gbit/s Fibre Channel als End-to-End-Lösung im Rechenzentrum 103

working-Dienste sind auch mit älteren SAN-Anlagen kompatibel und verbessern durch die Skalierung der Rechenzentrums-Fabrics den Return on Investment (RoI).

In vielen Rechenzentren besteht der entsprechende Bedarf bereits jetzt. Ihn zu erfül-len, erfordert vielleicht nicht unbedingt eine sofortige Aufrüstung auf 8 Gbit/s für alle Speicheranwendungen. Wenn aber in der Zukunft ohnehin Erweiterungen, Virtualisie-rungen oder Fabric-Vergrößerungen anstehen, lässt dies eine bereits jetzt vorgenom-mene Implementierung der 8 Gbit/s-Technologie als eine sichere und ratsame Wahl erscheinen. Beispielsweise werden bei der Vergrößerung von Fabrics mit 8 Gbit/s-Verbindungen nur noch halb so viele ISLs benötigt wie mit 4 Gbit/s-Verbindungen. Gleichermaßen wird beim ISL-Upgrade von 4 auf 8 Gbit/s die ISL-Überzeichnung bei gleichbleibender Verbindungsanzahl um die Hälfte reduziert.

Über lange Strecken können sich 8 Gbit/s gegenüber 4 Gbit/s schon sehr schnell amortisieren, und zwar aufgrund der hohen Kosten von Dark-Fiber- und WDM-Verbin-dungen. Fast alle dieser Erweiterungsverbindungen für natives FC unterstützen 8 Gbit/s. Damit lässt sich bei Verbindungen, die in der Regel Tausende oder sogar Zehntausende von Euro im Monat kosten, die Auslastung verdoppeln. So lassen sich die Anlagenkos-ten für die Geschwindigkeitserhöhung schnell rechtfertigen. Der Aufbau einer Hoch-leistungs-Basis, die die Flexibilität bietet, um bei Bedarf selektiv 8 Gbit/s bereitzustellen, vereinfacht das Management der Fabric im Rechenzentrum und ermöglicht das im Laufe der Zeit unvermeidliche Wachstum bei Anwendungen und Daten.

Die Entwicklungsphasen der Virtualisierung im Rechenzentrum

Die Virtualisierung von Server-Plattformen kann zu einem dramatischen Ansteigen des Bedarfs an schneller Konnektivität im SAN führen. Manche virtualisierten Hosts

arbeiten mit 10, 20 oder sogar 30 Betriebssystemen, sodass die Kapazität eines 4 Gbit/s-HBAs schnell erschöpft ist. Die 8 Gbit/s-End-to-End-Lösungen von Brocade helfen diese Überlastung vermeiden und steigern die Rendite der Investitionen in Server-Hardware und Virtualisierungssoftware.

Brocade unterteilt die Entwicklung der Virtualisierung im Rechenzentrum in die fol-genden drei Phasen:

Page 97: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

104 Brocade

• Phase 1. Der primäre wirtschaftliche Treiber für diese Phase ist die Reduzierung des Investitionsaufwands als Folge von Serverkonsolidierung sowie Flexibilisierung der Test- und Entwicklungsaktivitäten.

• Phase 2. Phase 2 ist charakterisiert durch Wachstum und den Einsatz von Disaster Recovery-(DR-)Lösungen sowie den Bedarf an Hochverfügbarkeit und automatisier-ter Bereitstellung von Serverkapazitäten (Server Provisioning). Primäre wirtschaft-liche Treiber sind die Reduzierung des Betriebsaufwands und der Bedarf an Business Continuity (BC). Hier einige typische Nutzungsfälle:

– Automatisierte Serverbereitstellung und Einsatz von vorgefertigten Virtual Machine (VM)- „Templates“

– Rechenzentrumsarchitekturen und Produkte, die Hochverfügbarkeit (HV) und eine ununterbrochene Bereitstellung der Dienste während Serverwartungen oder -ausfällen bieten

– Speicherreplizierung und automatische Dienstwiederherstellungen zur Realisie-rung der DR-Ziele

• Phase 3. Dies ist die Phase, in die wir im Augenblick einsteigen. Die wirtschaftlichen Treiber dieser Phase sind eine flexible IT, verifizierbare Kosten und weitere Reduzie-rungen bei den Betriebsaufwänden. In Phase 3 nutzen Rechenzentren ein richtlini-enbestimmtes Utility Computing, Service Level Management sowie die End-to-End-Bereitstellung von Diensten.

Die Virtualisierung hat die traditionellen Beziehungen zwischen Servern, Storage und Fabrics grundlegend verändert. Mit der Ausführung einer Vielzahl von VMs auf einer einzelnen Hardwareplattform erhöht sich die entsprechende Input/Output- (I/O-)Belastung dramatisch. Damit wird die Auslagerung von so viel I/O-Verarbeitungskapazität wie möglich zum Gebot der Stunde – um so die CPU-Kapazität produktiver für die Applikationsverarbeitung nutzen zu können. Um im vollen Umfang von der Servervirtu-alisierung zu profitieren, werden daher leistungs- und durchsatzstärkere Storage Adap-ter benötigt.

Brocades neue Familie von 8 Gbit/s-Switches unterstützt schnelles Rechenzent-rumswachstum durch die Bereitstellung einer Performance von 8 Gbit/s auf jedem Port. Eine Switching-Architektur ohne Überbelegung verbessert die Server-Verfügbarkeit, indem sie das schnelle Wachstum virtueller Server ohne Beeinträchtigung der Rechen-zentrumsleistung ermöglicht.

Eine neue Option der Brocade DCX Backbone und Brocade 5300 und 5100 Switches ist die Freigabe des Fabric OS (FOS) 6.1 der Fabric-Service „Integrated Routing“ (IR). Ab FOS 6.1 kann IR auf FC8 Port Blades mit bis zu 128 IR Ports pro Brocade DCX-Chassis aktiviert werden. (Mit zwei per Inter-Chassis Links verbundenen Brocade DCX-Chassis stehen insgesamt 256 IR-Ports zur Verfügung.) Das Fibre Channel Routing pro Port erfordert keine zusätzliche Hardware; benötigt wird nur eine optionale IR-Softwareli-

Page 98: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

8 Gbit/s Fibre Channel als End-to-End-Lösung im Rechenzentrum 105

zenz. IR kann per Konfiguration durch den Anwender für die maximale Anzahl Ports des Brocade 5300 (80 Ports) und des Brocade 5100 (40 Ports) konfiguriert werden. Brocade 8 Gbit/s-HBA-ASICs unterstützen bis zu 500k I/O per Sekunde (IOPS) pro Port (>1M IOPS auf einem Dual-Port-HBA), um die Host-Prozessoren zu entlasten und die Produk-tivitätsziele der Virtualisierung zu erfüllen. In Zukunft wird es mit der ISL-Trunking-Technologie von Brocade möglich sein, zwei 8 Gbit/s-HBA-Ports zu einer ultraschnellen 16 Gbit/s-Verbindung zusammenzuschließen, wobei eine Performancesteuerung auf Frame-Ebene erreicht wird. Derzeit können die Vorteile der 8 Gbit/s-Switching-Technologie über die „N_Port ID Virtualization“ (NPIV) direkt von den VMs genutzt wer-den, sodass einzelne VMs spezielle Brocade-Funktionen wie Top Talkers und QoS Traffic Prioritization nutzen können. Diese End-to-End-Integration von Fabric und Host ist ein Alleinstellungsmerkmal von Brocade; sie bietet die höchste I/O-Leistung der Branche für virtualisierte Umgebungen.

Brocade 8 Gbit/s-HBAs ergänzen führende Performance durch fortschrittliche Spei-cherfunktionalitäten und erlauben so eine weitere Verschlankung virtualisierter Server-Betriebsprozesse. So nutzen zum Beispiel die 8 Gbit-HBAs von Brocade für Compliance-Zwecke das den Industriestandard darstellende Fibre Channel Security Protocol (FC-SP) und werden in Zukunft für sichere Netzwerktransaktionen „in-flight“-Datenverschlüs-selung unterstützen.

Außerdem bietet Brocades neuer Fabric-Service „Adaptive Networking“ eine konfi-gurierbare Serviceleistung (QoS) für jede VM an. Mit zunehmender Nutzung von VM-Mobilität zur Verlagerung von Anwendungs-Workloads von einer Plattform auf eine andere sind konventionelle Vernetzungsmethoden nicht mehr ausreichend. Brocade erfüllt die Ansprüche dynamischerer virtualisierter Umgebungen durch die Bereitstel-lung einer integrierten Fabric- und HBA-Lösung, welche Anwendungen, die auf VMs laufen, nach Bedarf Sicherheits- und QoS-Stufen selektiv zuweisen kann.

Brocade 8 Gbit/s-Produkte

Anfang 2008 wurde als Brocades erste 8 Gbit/s-Plattform der Brocade DCX Backbone mit 16-, 32-, und 48-Port-Blades freigegeben. Im Mai 2008 komplettierte Brocade

den Übergang auf die 8 Gbit/s-Technologie mit der Freigabe des Fabric OS 6.1 und einer kompletten neuen Switch- und HBA-Familie für End-to-End-Konnektivität im Rechen-zentrum: • Brocade 815 (Single Port) und 825 (Dual Port)-HBAs • Brocade 300 Switch mit 8, 16 und 24 Ports • Brocade 5100 Switch mit 24, 32 und 40 Ports • Brocade 5300 Switch mit 48, 64 und 80 Ports

Page 99: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

106 Brocade

• FC8-16-, FC8-32- und FC8-48-Port-Blades für den Brocade 48000 Director

Brocade 8 Gbit/s-Switches entsprechen den Industriestandards, und Fabrics mit 4 und 8 Gbit/s können problemlos im Verbund miteinander arbeiten. Datenblätter mit Beschreibungen dieser Produkte finden Sie auf www.brocade.com

Fazit

Höhere Geschwindigkeiten auf Switching-Plattformen von Brocade sind einer von zahlreichen Vorteilen von Brocades ASIC-Familie der neuesten Generation. Mehr

Geschwindigkeit im Rechenzentrum bietet den direkten Vorteil leistungsfähigerer ISLs und erhöhter Skalierbarkeit; durch die Verdoppelung der ISL-Leistung können mehr Ports für Server und Storage genutzt werden. 8 Gbit/s werden außerdem für die Server-virtualisierung, die Skalierung von Fabrics, Sicherungen und für die Anforderungen des Hochleistungs-Computing benötigt. Weitere wichtige Treiber für die 8-Bit/s-Technologie sind neben der besseren Energieeffizienz der neuen Switch-Plattformen neue Funktio-nen wie Adaptive Networking und Integrated Routing. Auch Rechenzentrumsbetreiber, bei denen diese Anforderungen jetzt noch nicht relevant sind, werden sich auf kurz oder lang mit ihnen konfrontiert sehen, und wenn es um die Rechenzentrumsplanung geht, bietet die integrierte 8-Gbit-/s-End-to-End-Lösung das breiteste Angebot an Möglich-keiten mit der höchsten Leistung und Effizienz.

Weitere Informationen finden Sie auf unserer Webseite www.brocade.com Kontakt: Brocade Communications GmbH Ralf Salzmann Altkönigstrasse 6 64546 Mörfelden Walldorf [email protected]

Page 100: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

NetApp: innovative Lösungen für das Storage- und Datenmanagement

NetApp steht für innovatives Storage- und Datenmanagement mit hervorragen-der Kosteneffizienz. Das Engagement für Einfachheit, Innovation und den Erfolg seiner Kunden ließ das Unternehmen zu einem der am schnellsten wachsenden

Storage- und Datenmanagement-Hersteller werden. Das breite Lösungsportfolio für Server-zu-Storage-Virtualisierung, Business-Applikationen, Datensicherheit und mehr veranlassen Kunden weltweit, sich für NetApp zu entscheiden. Sie erreichen mit NetApp die konstante Verfügbarkeit geschäftskritischer Daten und können Business-Prozesse vereinfachen. Unter dem Credo „Go further, faster“ unterstützt NetApp Unternehmen weltweit in ihrem Erfolg.

Der Speicherbedarf für Daten im Unternehmen wird auch in den nächsten Jahren stark anwachsen. Dies stellt IT-Verantwortliche nicht nur vor die Herausforderung, immer mehr Storage Equipment anzuschaffen, sondern diese Geräte auch zu managen. Mithilfe seiner leistungsfähigen Unified Storage-Architektur unterstützt NetApp Unter-nehmen dabei, diese Herausforderungen effizient zu meistern: Außerordentlich nied-rige Betriebskosten (TCO), extrem schnelle Backup- und Restore-Prozesse, hohe Verfüg-barkeit, die Möglichkeit der Konsolidierung und Virtualisierung sowie ein vereinfachtes, komfortables Management der gesamten Storage-Umgebung tragen zum NetApp Motto des „Go further, faster“ bei.

LösungenMicrosoft, VMware, Oracle und SAP sind wichtige strategische Partner von NetApp. Für deren Datenbank- und Anwendungssoftware wurde von NetApp eine Vielzahl spezifi-scher Tools entwickelt.

Das NetApp Konzept

Data OntapEin kleiner, sehr effektiver Betriebssystemkern, der auf die Anforderungen von Spei-cherprozessen optimiert ist, liefert höchste Performance für Storage-Anwendungen und eröffnet vielseitige Einsatzbereiche: So ist mit Data ONTAP ein universeller Daten-zugriff mittels Block- oder Datei-Level-Protokollen möglich. Datenzugriffsprotokolle wie NFS, CIFS, iSCSI, FC, http und FTP erlauben den Zugriff auf Datei-Level.

Page 101: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

108 NetApp

Ausserordentlich flexible SpeicherzuordnungMit Data ONTAP können alle in einem System verfügbaren Festplatten für alle Applika-tionen genutzt werden. Es muss nicht mehr ein bestimmter Speicherplatz bestimmten Anwendungen zugeordnet werden. Dies bedeutet, dass jede Applikation alle eingebau-ten Laufwerke nutzen kann, unabhängig davon, welchen Gesamtspeicherplatz die Anwendung benötigt.

SnapshotMit der von NetApp entwickelten „Snapshot”-Technologie ist es möglich, ohne Perfor-mance-Einbußen pro angelegtem Volume 255 Snapshots zu generieren. Snapshots sind Read-Only-Kopien der Daten auf dem jeweiligen Volume (d.h. die Daten im Snapshot sind auf den gleichen Platten abgelegt wie die Produktivdaten).

Flexvol & FlexcloneDie NetApp FlexCloneTM Technologie ermöglicht echtes Klonen, eine unverzügliche Rep-lizierung von Datenvolumes und Datensets, ohne zur Erstellung zusätzlichen Speicher-platz zu benötigen.

NetApp FlexClone bietet deutliches Einsparpotenzial beim Speicherplatz, und das bei nur geringem Overhead.

MetroclusterSollen die beiden Storage Controller eines FAS Clusters in getrennten Standorten auf-gebaut werden, spiegelt MetroCluster die Daten synchron (siehe SyncMirror) in beiden Rechenzentren. Zusätzlich wird eine automatische Übernahme durchgeführt, wenn ein FAS System nicht zur Verfügung stehen sollte.

Das NetApp Unified-Storage-Konzept

NetApp hat eine von Grund auf einheitliche Storage-Architektur konzipiert, in die sich alle Storage-Produkte nahtlos einfügen und mit einem einheitlichen

Betriebssystem (Data ONTAP) verwaltet werden können. Daraus ergeben sich eine Viel-zahl wirtschaftlicher Vorteile:

Geringerer Administrationsaufwand – weniger Mitarbeiter können mehr Speicher und mehr Anwendungen verwalten.

Bessere Auslastung vorhandener Speicher-Ressourcen – da alle Geräte in einem Netzwerk verbunden sind, können Daten und Anwendungen unabhängig vom physi-schen Speicherplatz nach Bedarf verteilt werden (Virtualisierung). So kann bei gleicher

Page 102: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Innovative Lösungen für das Storage- und Datenmanagement 109

Menge gespeicherter Daten und laufender Applikationen der Speicherbedarf um bis zu 30 % gesenkt werden.

Langfristiger Investitionsschutz – Bei veränderten Anforderungen sind die Sto-rage-Systeme jederzeit erweiterbar und können so an die neuen Anforderungen opti-mal angepasst werden. Investitionen in andere dedizierte Systeme werden vermieden.

Flexible Skalierbarkeit – wenn stark wachsende Datenmengen oder neue Business-Applikationen den Speicherbedarf drastisch erhöhen, kann zusätzliches Storage Equip-ment „im Handumdrehen“ integriert werden.

Kein Migrationsaufwand – die durchgängige NetApp Produktpalette ermöglicht den reibungslosen und schnellen Transfer von Daten, wenn weitere Systeme hinzuge-fügt werden.

Die NetApp FAS Systeme

Die leistungsstarken, skalierbaren und zuverlässigen NetApp FAS Systeme (fabric attached storage) für ein vereinfachtes Datenmanagement erfüllen die Anforde-

rungen von Unternehmen jeder Größenordnung – angefangen bei den Global 1000 über mittelgroße Unternehmen bis hin zu kleinen Abteilungen.

Installation, Konfiguration und Administration dieser Systeme sind denkbar einfach. Dank des stabilen und flexiblen Microkernel-Betriebssystems Data ONTAP ist ein gleich-zeitiger und kombinierter Einsatz in FC SAN-, iSCSI- und NAS-Umgebungen pro-blemlos möglich. Dabei werden neben Windows, Unix und Linux auch Web-Daten unterstützt.

Die FAS Produktreihe umfasst die Highend-Serie FAS6000 für Datenkonsolidierung im großen Umfang und Hochleistungsapplikationen, die Midrange-Serie FAS3100 mit außergewöhnlichem Preis-Leistungs-Verhältnis für SAN und NAS und die Serie FAS2000 für die Datenspeicherung in Niederlassungen sowie für mittelgroße Unternehmen.

Die FAS Systeme wurden entworfen, um Daten für eine breite Palette von Applikati-onen konsolidieren und bereitstellen zu können – einschließlich Business-Applikatio-nen, E-Mail, Enterprise Content Management, technische Applikationen, File Shares, Home Directories und Web Content.

Maximierung der Storageauslastung und Performance durch VirtualisierungMit einer Virtualisierung der Server im Data Center können Kunden zwar die Server-Auslastung verbessern und die Verwaltung der Server vereinfachen. Doch erhöhen sich dabei die Anforderungen an Storage-Systeme, da sie höhere I/O-Raten, mehr Kapazität und das schnelle, unterbrechungsfreie Bereitstellen von Speicherplatz unterstützen müssen. Wenn bei der Server-Virtualisierung die Storage-Optimierung nicht berück-

Page 103: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

110 NetApp

sichtigt wird, findet oftmals nur eine Umschichtung der Kosten von Servern zu Storage-Systemen statt.

Gemeinsam mit Anbietern wie z.B. VMware bietet NetApp Lösungen und Best Practi-ces für die Entwicklung einer virtualisierten Infrastruktur vom Server bis zum Speicher an, die eine Reihe an Vorzügen aufweisen:• Skalierbare und konsistente I/O Performance für alle ESX-Protokolle (NFS, iSCSI und

FC)• Flexible, schnelle, einfache und kostengünstige Provisionierungs- und Datenmana-

gement-Lösungen• Erstklassige virtualisierte Storage-Lösung für Thin Provisioning in heterogenen Sto-

rage-Umgebungen

Netapp Deduplizierung im ESX-UmfeldDie NetApp Deduplizierung zählt zu den grundlegenden Bestandteilen unseres Data ONTAP® Betriebssystems. Durch das Beseitigen redundanter Datenobjekte und die aus-schließliche Referenzierung auf das Ursprungsobjekt wird der verfügbare Speicher viel effizienter genutzt.

Snapmanager für virtualisierte Infrastrukturen (Vi)SnapManager für VI bietet Kunden eine automatisierte Lösung für Backup und Restore von Virtual Machines in einer VMware ESX-Umgebung. Die beiden Hauptvorteile dieser Lösung:• Die Backups, die mit der Snapshot-Technologie von NetApp erstellt werden, belegen

nur einen Bruchteil des Speicherplatzes, den herkömmliche Systeme benötigen.• Die Systemleistung der ESX-Umgebung und damit auch die Applikationen werden

durch Backup- und Restoreprozesse des SnapManagers kaum beeinträchtigt.

Mehr als 5.000 Kunden (Stand: März 2008) weltweit nutzen bereits die Vorzüge einer VMware-Lösung mit NetApp Storage.

Unterstützung einer Virtual Desktop InfrastructureNeben der Servervirtualisierung bietet VMware mit Virtual Desktop Infrastructure (VDI) eine weitere ressourcensparende Virtualisierungstechnologie. Applikationsumgebun-gen laufen nicht mehr in den Desktop-Rechnern der Anwender, sondern in virtuellen Maschinen im Rechenzentrum. Mit NetApp FlexClone lassen sich innerhalb von Minu-ten Tausende solcher Virtual Machines einrichten. Durch Datendeduplizierung werden Einsparungen von rund 90 Prozent bei der benötigten Speicherkapazität möglich.

Page 104: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Innovative Lösungen für das Storage- und Datenmanagement 111

NetApp Lösungen für SAPAls weltweiter Technologiepartner der SAP hat NetApp eine erfolgreiche Historie in der Entwicklung von Lösungen, welche signifikant das SAP-Datenmanagement vereinfa-chen.

Als einer der Gründungsmitglieder der „Adaptive Computing Initiative für SAP“ erhielt NetApp zahlreiche Zertifikate für die Kompatibilität der NetApp Storage-Lösun-gen und ist auf der von SAP freigegebenen Compliance-Liste innerhalb des „SAP Adap-tive Computing Services“ für Unix-, Linux®- und Windows®-Plattformen vertreten.

NetApp gewann den SAP Pinnacle Award für technische Innovation und Zusammen-arbeit in der Adaptive Computing „Netweaver Innovation“ Kategorie für die FlexFrameTM for mySAP Business SuiteTM Co-Entwicklung mit Fujitsu Siemens Computers. Integra-tive Bestandteile hierfür sind NetApp System-Cloning und Backup/Recovery-Szena-rien.

Das NetApp Unified Storage-Modell bietet SAN-/IP SAN- und NAS-Anbindungen mit Block- und File-Zugriffsmöglichkeiten innerhalb einer einzigen Storage-Architektur. Datenmanagement-Lösungen wie FlexCloneTM erlauben das Klonen von SAP-Produk-tivsystemen ohne Performanceeinfluss innerhalb weniger Minuten ohne zusätzlichen initialen Speicherbedarf und vereinfachen damit signifikant das Aufsetzen und Manage-ment von Systemen für QA, Test, Entwicklung, Reporting, Schnittstellen und Schulung.

Die Kombination von NetApp SnapShotTM und SnapRestore® ermöglicht SAP-Kun-den schnellstes und einfachstes Backup und Restore mehrerer TB an SAP-Daten sowie effiziente und einfache Upgrades und Migrationen von SAP-Systemen. NetApp Adap-tive Computing-Lösungen versetzen SAP-Kunden in die Lage, dynamisch, flexibel und wirtschaftlich auf Geschäftsanforderungen reagieren zu können.

Darüber hinaus bietet NetApp für Unternehmen, die SAP im Einsatz haben:• Eine umfassende Palette an Produkten für Windows-, Unix- und Linux-Umgebungen

mit Unified NAS/SAN Storage-Lösungen. • ILM-Lösungen: Speicherkonsolidierung, Backup und Recovery, Archivierung und

Compliance mittels ArchiveLinkTM und/oder WebDAV. • Hochverfügbarkeits- und Disaster Recovery-Lösungen zur Datenverschlüsselung.• SnapManager für SAP: Die von SAP zertifizierte Lösung vereinfacht die Erstellung

applikationskonsistenter Snapshot-Kopien, automatisiert fehlerfreie Daten-Restores und ermöglicht applikationsspezifisches Disaster Recovery.

• Außerdem können Clones der SAP-Datenbank automatisiert erstellt werden. • Weltweite Supportvereinbarung zwischen NetApp und SAP, damit rund um die Uhr

für den Support von SAP-Infrastrukturen beim Kunden gesorgt ist.

Weitere Informationen über diese und andere NetApp Lösungen finden Sie unter www.netapp.com

Page 105: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

CA RECOVERY MANAGEMENT

Datenschutz und Verfügbarkeit

Lösung

CA Recovery Management bietet Ih nen die Funktionen und Leistungen, die Sie wirklich benötigen: umfas senden Schutz und verlässliche Re covery in einer ein-fachen und leicht handhabbaren Lösung.

Es beinhaltet anwendungsbezogenes, leistungs starkes Backup mit Replikation, unterbrechungsfreiem Datenschutz, automatisiertem Failover und unterbrechungs-freien Disaster Re covery Tests, damit Sie den Schutz bereitstellen können, der sich an der Bedeutung der Daten für Ihr Unter nehmen orientiert. Eine vereinfachte Oberfläche und neue Funktionen der zentralen Verwaltung ermöglichen Ihnen, Ihre gesamte Backupumge bung zu organisieren, zu überwa chen und zu konfigurieren, was zu einer besseren Verwaltbarkeit und niedrigeren Betriebskosten führt. Dank des modularen Ansatzes eignet sich diese Lösung für Unternehmen jeder Größe. Sie verbindet CA ARC-serve Backup mit CA XOsoft Replication und CA XOsoft High Availability, um Ihnen die Abstimmung eines mehrstufigen Datenschutzkonzepts auf Ihre Unternehmensziele zu ermöglichen.

Nutzen

Die Lösung lässt sich auch nahtlos in vorhan dene IT Management-Lösungen inte-grieren, sodass Enterprise IT Management vereinfacht und erwei tert wird.

CA Recovery Management: Eine vollständige Lösung für den Datenschutz

CA Recovery Management bietet die von Ihrem Unternehmen benötigten umfassen-den und integrierten Datenschutz- und Wiederherstellungsfunktionen. Dafür wer-

den robuste, bewährte Technologien eingesetzt, die über eine einzige, vereinfachte

Page 106: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

114 CA Recovery Management

Schnittstelle verbunden sind. Diese Technologien ermöglichen einen mehrstufigen Datenschutz, der auf die Ziele, Anforderungen und Richtlinien von Unternehmen abge-stimmt ist und zahlreiche Hardware und Softwareplatt formen abdeckt.

CA Recovery Management kombiniert bewährte, leistungsstarke Lösungen — CA ARCserve® Backup, CA XOsoft Replication und CA XOsoft™ High Availability.

CA ARCserve Backup Release 12

CA ARCserve Backup bietet den umfassendsten Datenschutz, der derzeit am Markt verfügbar ist. Die Lösung ermöglicht eine zentrale Steuerung und bietet erweiterte

Funktionen, die den geänderten Anforderungen in Ihrem Unternehmen Rechnung tra-gen. Funktionen wie die nach FIPS zertifizierte 256-Verschlüsselung verbessern die Sicherheit, und Berichte liefern umsetzbare Informationen und optimieren das Backup und die auf SQL Express basierte Katalogdatenbank mit verbesserter Indizierung für eine schnellere Recovery. Eine Kombination dieser Funktionen bietet Unternehmen mehr Kontrolle, höhere betriebliche Effizienz, mehr Schutz und geringere Kosten. Diese Lösung ermöglicht zuverlässigen Datenschutz der „Enterpriseklasse“ für unterschied-lichste Betriebsumgebungen. Die Tatsache, dass CA ARCserve Backup integrierte Tools für den Virenschutz und die Verschlüsselung beinhaltet, macht es zur sichersten sofort einsatzfähigen Backuplösung, die derzeit auf dem Markt erhältlich ist.

CA XOsoft High Availability & CA XOsoft Replication Release 12

Diese Lösung für maximale Business Continuity basiert auf asynchroner Echtzeit-datenreplikation mit automatischem Failover und automatischer Zurücksetzung.

Darüber hinaus ermöglicht sie integrierten kontinuierlichen Datenschutz (continuous data protection CDP) vor Korruption und automatische Disaster Recovery Tests, die sicherstellen, dass sich unternehmenskritische Daten und Anwendungen wiederherstel-len lassen. CA XOsoft High Availability sorgt kostengünstig für die unterbrechungsfreie Verfügbarkeit von Servern, auf denen Microsoft Exchange, Microsoft SQL Server oder Oracle Daten banken, Microsoft Internet Information Services (IIS) WebServer, Datei-server, BlackBerry Support und andere Anwendungen (sowohl auf 32 als auch 64Bit Windows Servern) ausgeführt werden.

Kontakt: [email protected], www.ca.com/us

Page 107: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Sun Microsystems / StorageTek

Über 35jährige Erfahrung in dem klassischen Bereich Datensicherheit

Durch die Übernahme von StorageTek ist Sun Microsystems zu einem der weltweit führenden Anbieter von Tape Libraries und Laufwerken avanciert. Kundenorien-tierte Lösungen mit speziellen Serviceangeboten zeichnen das Unternehmen aus.

Sun Microsystems (JAVA) entwickelt Informationstechnologie für die globale Wirt-schaft. Mit der Vision „The Network is the Computer“ treibt Sun die Verbreitung des Internets voran und konzentriert sich auf offene Innovationen, Entwicklung von Com-munities sowie die Marktführerschaft bei Open Source. Sun ist in mehr als 100 Ländern vertreten.

Märkte

Sun Microsystems ist ein Systemanbieter, entwickelt Hardware und Software. Weil sich die Softwareentwicklung darauf konzentriert, systemnahe Aufgaben zu lösen

oder strategisch wichtige Meilensteine in Einklang zur Sun Vision zu setzen, steht Sun nicht im Wettbewerb zu den Entwicklern von Anwendungsprogrammen. Vielmehr bestehen feste Partnerschaften mit zahlreichen renommierten Softwareherstellern, um gemeinsam Angebote zu entwickeln. Auch auf diese Weise behalten Kunden ihre Frei-heit, denn sie können sich für die beste Lösung am Markt entscheiden. Um die frühzei-tige Integration der Systeme sicherzustellen, hat Sun Microsystems zahlreiche Partner-programme aufgelegt, die sowohl branchenbezogene als auch aufgabenbezogene Wege vorgedacht haben. Für Sun Systeme mit der Plattform SPARC/Solaris gibt es ein Lösungsportfolio von fast 13.000 kommerziellen und technischen Anwendungen. Neben den Partnerschaften mit unabhängigen Software-Herstellern setzt Sun sehr stark auf langfristige Vertriebspartnerschaften mit innovativen Distributoren und Resel-lern. Diese Partnerschaften ermöglichten flächendeckend schnelle und kompetente Lösungen für Endkunden.

Page 108: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

116 Sun Microsystems

Die Partnerschaft zwischen Fujitsu Siemens Computers und Sun Microsystems

Zwischen Fujitsu Siemens Computers und Sun Microsystems/StorageTek besteht eine langjährige Partnerschaft, welche den Nearline (Tape) Bereich umfasst und seit 2008

um die SPARC basierten Systeme erweitert wurde. Durch OEM-Verträge, sowie Resel-ler-Vereinbarung mit Sun für Nearline, Laufwerkstypen und Sparc basierte Produkte hat Fujitsu Siemens Computers einen starken Partner für den Bereich Disaster Recovery und Backup gewonnen. Sun Nearline Produkte als Quasi-Standard überzeugen mit ihrer hoch performanten Leistung und der überdurchschnittlichen Fehlertoleranz. Durch die offene Bauweise und die vielfältigen Anschlussmöglichkeiten sind sie mit den von Fujitsu Siemens Computers vertriebenen Systemen, wie z.B. CentricStor Virtual Tape Appliance, optimal in die Backup-Umgebungen zu integrieren. Eine Zusammenarbeit zwischen Sun Microsystems und Fujitsu Siemens Computers hat sich in großen, kom-plexen Projekten bereits als äußerst effektiv erwiesen. Dies gilt für Unternehmen ver-schiedenster Art, besonders für Großunternehmen und Mittelstands-Kunden. Belege hierfür sind die vielen gemeinsamen Projekte, welche sich in Case Studies nachlesen lassen.

Sun StorageTek Open Storage Lösungen

Elektronisch gespeicherte Daten sind heute für viele Unternehmen einer der wichtigs-ten Aktivposten. Diese Daten sicher zu speichern, intelligent zu verwalten und stän-

dig kontrolliert zur Verfügung zu stellen, ist von vitalem Interesse für jedes Unterneh-men. Das ungebremste Datenwachstum und die wachsende Anzahl gesetzlicher Rege-lungen zu Aufbewahrungsfristen und Zugriffskontrollen erfordern neue Wege der Datenspeicherung und Verwaltung. Sun StorageTek Open Storage Lösungen erlauben es, diesen Herausforderungen erfolgreich zu begegnen. Sie kombinieren unsere über 35jährige Erfahrung in den klassischen Bereichen wie Datensicherheit, Datenverfügbar-keit und Ausfallkonzepte mit neuen Technologien wie Zugriffsschutz durch Identity Management und Storage Virtualisierung. Damit sind zukunftsweisende Information-Lifecycle-Management-Infrastrukturen möglich, die Ihre Daten nicht nur sicher und regelkonform speichern, sondern jedem, der sie benötigt, sofort zur Verfügung stellt.

Page 109: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Über 35jährige Erfahrung in dem klassischen Bereich Datensicherheit 117

Tape Library StreamLine® SL500

Die Sun StorageTek StreamLine SL500 Tape-Library ist die Einstiegslösung für den Mittelstand. Die bewährte LTO-Technologie garantiert einen reibungslosen Betrieb.

Die modulare Ausbaufähigkeit innerhalb eines Standard-Racks gestattet es dem Kun-den, die Kapazitäten seinen betrieblichen Bedürfnissen jederzeit anzupassen.

Tape Library StorageTek SL3000

Das Sun StorageTek SL3000 Modular Library System ist ein innovatives, umweltver-trägliches Storage-Konzept für den Midrange-Bereich. Die Any Cartridge Any Slot

Technologie ermöglicht die optimalen Laufwerke je nach Zugriffs- und Speicheranfor-derung einzusetzen.

Highlights– Flexible Skalierung, bei der nur die tatsächlich genutzte Kapazität berechnet wird.– Kosteneinsparungen durch weniger Platz und weniger Stromverbrauch.– Einfacheres Storage Management durch Partitionierung, Sharing.– Innovative Technologien reduzieren das Risiko und eröffnen neue Möglichkeiten.– Support und Services für die erfolgreiche Installation, Optimierung und Wartung.

Tape Library StreamLine® SL8500

Die modulare Sun StorageTek StreamLine SL8500 Tape-Library ermöglicht, die Organisation von Betriebsabläufen rationeller aufzusetzen, die Verfügbarkeit zu

maximieren und optimale Voraussetzungen für die Revisionssicherheit zu schaffen, wobei die Kostenbelastung und die Beeinträchtigung der Abläufe absolut im Rahmen bleiben.

Highlights– Datenkonsolidierung: Eine exzellente Skalierbarkeit sowie die Unterstützung von

mixed Media.– Gemeinsame Ressourcen: Für den Einsatz in Mainframe, Unix, Linux und Windows

konzipiert.– Höhere Verfügbarkeit: Hochrüstung ohne Ausfallzeiten. Redundanz im Betrieb.

Page 110: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

118 Sun Microsystems

– Höherer Durchsatz: Leistungsstarker Durchsatz und hohe Kapazität.– Einfache Skalierung: Ohne Ausfallzeiten, Wachstum gemäß Ihren Anforderungen. – Geringer Platzbedarf: Hohe Dichte der Medienstellplätze, optimale Auslastung.

Weitere Informationen über Sun Lösungen finden Sie unter http://de.sun.com/

Page 111: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Symantec: Confidence in a connected world

Symantec ist ein weltweit führender Anbieter von Sicherheits-, Storage- und Sys-temmanagement-Software, mit der Unternehmen und Privatpersonen ihre Infor-mationen sichern und verwalten können. Symantec hat seinen Hauptsitz in Cup-

ertino, Kalifornien, und betreibt Niederlassungen in mehr als 40 Ländern.

Marktkategorien Produkte für Privatanwender; Sicherheit und Compliance; Management von Storage-Ressourcen und Verfügbarkeit; Symantec Global Services.

Die Führungskräfte von Symantec verfügen über Jahrzehnte an Erfahrung und kön-nen auf eine lange Erfolgsgeschichte zurückblicken. Mit ihrer Kombination aus Geschäftssinn und technischem Know-how führen sie ein Unternehmen mit mehr als 17.500 kompetenten Mitarbeitern. Kunden in der ganzen Welt setzen auf die innovati-ven Produkte und Lösungen von Symantec, die ihnen Sicherheit für ihre Infrastruktu-ren, Informationen und Transaktionen bieten.

Partnerschaft zwischen Fujitsu Siemens Computers und Symantec

Nahezu alle Produkte von Symantec (sowie die ehemaligen VERITAS-Produkte) sind für Produkte von Fujitsu Siemens Computers zertifiziert. In erster Linie vertreibt

Fujitsu Siemens Computers die VERITAS Storage Foundation als die strategische Datei-system- und Volume-Management-Lösung für seine PRIMEPOWER-Server.

NetBackup und Enterprise Vault sind strategische Produkte und wesentliche Bestand-teile des Storage Portfolio von Fujitsu Siemens Computers. Die CentricStor Virtual Tape Appliance von Fujitsu Siemens Computers ist bereits durch Zusatzfunktionen von Symantec-Produkten optimiert.

Die Zusammenarbeit zwischen den Softwarelösungen von Symantec und den Platt-formen von Fujitsu Siemens Computers hat sich in großen, komplexen Projekten bereits als äußerst effektiv erwiesen. Dies gilt für Unternehmen verschiedenster Art, besonders für Großunternehmen und KMU-Kunden.

Für seine DeskView- und ServerView-Lösungen setzt Fujitsu Siemens Computers auf Technologien von Altiris.

Page 112: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

120 Symantec

Veritas NetBackup – hochleistungsfähige Datensicherung

Veritas NetBackup Enterprise Server ermöglicht hochleistungsfähige Datensicherung für die größten Unix-, Windows-, Linux- und NetWare-Umgebungen. NetBackup

fasst sämtliche Backup- und Wiederherstellungsvorgänge in einem einzigen Manage-ment-Tool zusammen und ermöglicht so einen umfassenden Schutz vom Desktop über das Rechenzentrum bis hin zum Vault-Archiv. NetBackup bietet seinen Anwendern die Möglichkeit zur Nutzung der Potenziale von sowohl Band- als auch Festplatten – unterstützt durch fortschrittliche Technologien zur Platten- und Snapshot-basierten Datensicherung, zum Offsite-Management von Datenmedien und zum automatischen Disaster Recovery. Für ein Höchstmaß an Datensicherheit bietet NetBackup eine Daten-verschlüsselung zur Übertragung und Speicherung von Daten mit den neuesten Ver-schlüsselungstechnologien.

Veritas NetBackup bietet granulare Wiederherstellungen auf Datei- und Image-Ebene von einem einzigen Backup aus, sowie die automatische Erkennung virtueller Maschinen (Gewinner der Auszeichnung “Best of VMWorld” for Data Protection 2007).

Symantec Enterprise Vault – E-Mail-Archivierung

Symantec Enterprise Vault™ bietet eine softwarebasierte, intelligente Archivierungs-plattform, um Unternehmensdaten aus E-Mail-Systemen, Datei-Server-Umgebun-

gen, Instant Messaging-Plattformen sowie Inhaltsverwaltungs- und Kooperationssys-temen zu speichern, zu verwalten und leichter aufzufinden. Da nicht alle Daten gleich sind, verwendet Enterprise Vault intelligente Klassifizierungs- und Aufbewahrungs-technologien zum Erfassen, Kategorisieren, Indizieren und Speichern der Zieldaten. So können Unternehmen Richtlinien erfüllen, Unternehmenswerte schützen und gleich-zeitig die Speicherkosten reduzieren sowie die Verwaltung vereinfachen. Enterprise Vault enthält auch spezialisierte Anwendungen wie Discovery Accelerator und Compli-ance Accelerator zum Verwalten und einfachen Durchsuchen der archivierten Daten zu verschiedenen Zwecken wie Beweisführung, Content Compliance, Wissensmanagement und Initiativen zur Informationssicherheit. Es eliminiert die mit PST-Dateien verbunde-nen Probleme hinsichtlich Backups, Sicherheit, Stabilität und Speicherplatzbelegung. Archivieren von Daten für die Einhaltung rechtlicher Aufbewahrungsvorschriften, sodass E-Mail-Inhalte und Unternehmensdokumente für die Einhaltung der einschlägi-gen Richtlinien und Vorschriften wiederhergestellt werden können.

Weitere Informationen finden Sie auf unserer Webseite www.symantec.de Kontakt: Harald Derbsch: [email protected]

Page 113: Storage Basics -   · PDF fileStorage Basics – Eine ... Brocade, CA, EMC, NetApp, Sun und Symantec Preis: 14,99 Euro. Storage Basics Eine Einführung in die Grundlagen der

Storage BasicsEine Einführung in die Grundlagen der Speichertechnologie

Stor

age

Basic

s – E

ine

Einf

ühru

ng in

die

Grun

dlag

en d

er S

peich

erte

chno

logi

e

Storage BasicsEine Einführung in die Grundlagen der Speichertechnologie

Inhalt

Kapitel 1 – Die Informationsgesellschaft: Daten und Wissen speichern auf neuem Niveau

Kapitel 2 – Tiered Storage: intelligentes Informationsmanagement im Unternehmen

Kapitel 3 – Online-Storage: von Platten und Zuverlässigkeit

Kapitel 4 – Speichernetze: die Qual der Wahl

Kapitel 5 – Backup & Restore: eine ungeliebte Pflichtübung

Kapitel 6 – Storage Management: komplexe Speichernetze beherrschbar machen

Kapitel 7 – Virtualisierung: bei Speicherthemen existiert Nachholbedarf

Kapitel 8 –Die Speicherstrategie von Fujitsu Siemens Computers und seiner Partner

Ausblick: Future Storage Trends

Glossar

Sowie Beiträge zu Speicherthemen der Partner Brocade, CA, EMC, NetApp, Sun und Symantec

Preis: 14,99 Euro


Recommended