Storage Mehr Ordnung im Speicher

Letztlich hat IT nur ein Ziel: Die richtigen Informationen rechtzeitig bereit zu stellen. Aber anstatt eine zentrale Datenbank einzurichten, greift in Unternehmen häufig dezentraler Speicherwildwuchs um sich. Storage-Software trägt dazu bei, Informationen verfügbar zu machen und toten Speicherplatz zu vermeiden.
Von Manfred Buchmann

Ein radikaler Schnitt ist oft besser als punktuelle Eingriffe bei der Symptombekämpfung. Bestes Beispiel ist der Speicherwildwuchs der Client-Server-Ära, der vielerorts nicht mehr verwaltbar ist. Die Ursachen sind vielfältig und heißen unter anderem immer größerer Speicherbedarf, immer mehr Applikationen, stark heterogen geprägte Strukturen und zersplitterte Datenhaltung.

Buchstäblich jeder Geschäftsvorgang hat heute ein digitales Abbild, sei es in Form eines Datenbankeintrags, einer Rechnung oder der Korrespondenz über E-Mail. Hinzu kommt, dass die Benutzer Daten im Zweifel lieber speichern als löschen. Auch greift die nationale und internationale Gesetzgebung immer stärker in die Datenhaltung ein.

Selbst wenn der Preisverfall bei Storage für einen Kapazitätsausbau sprechen mag, es bleiben zwei Aspekte zu bedenken: Erstens erhöht mehr Speicher auch den Managementaufwand. Zweitens sind die bestehenden Speicherressourcen oft nur mangelhaft ausgelastet. Die Storage-Nutzungsbilanz liegt heute bei gerade einmal 40 Prozent.

Abgesehen davon, dass mehr Ressourcen vorhanden sind, als sich nutzen lassen, besteht generell ein Managementproblem, das beträchtliche administrative Kosten verursacht. Client-Server-Strukturen haben dazu geführt, dass immer mehr Dateninseln entstanden sind.

Das gilt für bestimmte Applikationen etwa im Finanzwesen, in der Produktion oder im Vertrieb, die zudem untereinander nicht kompatibel sind, ebenso wie für Niederlassungen und Filialen mit ihrer kompletten IT-Ausstattung. Typisch für diese Szenarien sind direkt an die Applikationsserver angeschlossene Speicher wie etwa ein RAID-Array mit mehreren oder auch Server mit nur einer einzelnen Festplatte.

Selbst Standardwartungsaufgaben an den Speichern wie Festplattenaustausch, Bemessung der Volumes oder Kapazitätsausbau ziehen geplante oder ungeplante Ausfälle nach sich. Dies wirkt sich negativ auf die Verfügbarkeit aus und beeinträchtigt letztlich auch das Geschäftsergebnis.

Konsolidierung...

Konsolidierung...

Der erste Schritt in Richtung Konsolidierung ist folglich die Ablösung des Direct Attached Storage, einen direkt an einen Server angeschlossenen Massenspeicher, durch Networked Storage, das sind an das lokale Netzwerk angeschlossene Massenspeichereinheiten zur Erweiterung der Speicherkapazität. Im ersten Quartal 2003 lagen die vernetzten Speicher laut IDC erstmals mit 53 Prozent Umsatzanteil vor Direct Attached Storage (DAS). Dies markierte einen Wendepunkt in der Storage-Geschichte und machte als Trend Schule.

Konsolidierung ist jedoch mehr, als lediglich die Storage-Hardware an einem zentralen Ort zusammenzustellen. Selbst wenn sich dadurch die Speicherinseln abbauen lassen, entsteht keine echte Konsolidierung, solange die direkte Verbindung zwischen Server und Storage nicht gekappt wurde.

Die Abkopplung des Speichers vom Server und die zentrale Bereitstellung der Daten aus einem Storage-Pool lässt sich auf verschiedene Weise realisieren und wird zunächst nur davon begrenzt, welche Art Datenzugriff - Block oder File - eine Applikation erfordert. Sprich: Muss ein Storage Area Network auf der Basis eines Fibre-Channel-Standards aufgesetzt werden oder eignet sich Network Attached Storage?

Seit sich das iSCSI-Protokoll als Storage-over-IP-Verfahren für Speichernetzwerke nicht nur als interessante Option, sondern als echte Alternative zu Fibre-Channel darstellt, erweitern sich die Wahlmöglichkeiten um das so genannte iSAN, ein Netzwerk zwischen Server-Systemen und von den Servern genutzten Speicherressourcen. iSCSI sorgt dafür, dass Applikationen wie Lotus Notes, Microsoft Exchange oder Microsoft SQL Server ihre Daten über IP und damit auch über das Ethernet erhalten und schicken können statt nur mehr über Fibre-Channel oder SCSI, wobei letzteres das häufigste Protokoll für das Direct-Attached Storage-Prinzip ist.

Konsolidierter Storage wird gerne mit dem Bild einer einzigen, virtuellen Festplatte im Netzwerk beschrieben. Je nachdem, welche Architektur eine Speicherplattform aufweist, lassen sich mehr oder weniger große Konsolidierungseffekte erzielen. Den größten Effekt bietet eine so genannte Unified-Storage-Architektur, die buchstäblich jeder beliebigen Applikation unter verschiedenen Betriebssystemen "artgerechten" Datenzugriff erlaubt und die dafür nötigen Protokolle auf einer universellen Plattform unterstützt. Damit genügt es auch, eine einzige Kopie der Daten vorzuhalten, die allen Benutzern und Applikationen zur Verfügung steht.

...und die Folgen

...und die Folgen

Konsolidierung an sich bietet bereits eine Reihe von Vorteilen, die sich in erster Linie aus der Zentralisierung des Managements ergeben. Das Qualitätsniveau von Backup und Recovery steigt, was sich insbesondere bei einem standortintensiven Filialbetrieb bezahlt macht, der in der Regel kein IT-Personal vor Ort hat und dennoch die Verfügbarkeit sicherstellen muss. Die Skalierbarkeit verbessert sich ebenso wie die Antwortzeiten und Ressourcenauslastung.

In Kombination mit einer Speichervirtualisierung erschließen sich weitere Optionen, die nicht nur die Speichernutzung optimieren, sondern auch flexible, serviceorientierte Prozesse ermöglichen. Bei der Virtualisierung unterbricht eine Abstraktionsschicht die direkte Verbindung zwischen Festplatten und Daten, so dass flexible Datencontainer entstehen, die nicht mehr direkt auf die Festplatten gemappt werden.

Heute sind bereits Tools und Techniken wie etwa die NetApp FlexVol Software verfügbar, die viele Terabyte an Speicher in einem Pool zusammenfasst und Usern, Gruppen oder Projekten ihre Speicherressourcen flexibel und dynamisch zuteilt.

Die Folgen der herkömmlichen, fixen Provisionierung und Kapazitätsplanung erübrigen sich damit: Oft zeigt sich erst in der Praxis, wie sich prognostiziertes Datenwachstum und tatsächliche Belegung der zugewiesenen Speicherkapazität entwickelt. Bleibt das antizipierte Datenwachstum der Applikation hinter den Erwartungen zurück, bleibt ein Teil des Speichers mehr oder weniger lange ungenutzt und verursacht Kosten. Der Grund dafür liegt darin, dass der Applikation Speichermenge und Speicherort fest zugewiesen werden müssen. Diese Kapazität fällt als mobile Reserve für andere Applikationen oder veränderte Gegebenheiten aus.

Die Virtualisierung mit ihren Möglichkeiten des Over- und Thin-Provisioning, also der Bereitstellung höherer oder niedrigerer Datenraten als benötigt, helfen dabei, nicht nutzbare Speicherreserven zu vermeiden. IT-Abteilungen sind oft mit dem Ruf nach der Bereitstellung von Speicherkapazität für eine Applikation konfrontiert, die der tatsächlichen Nutzung - wenn überhaupt - nur zur Hälfte gerecht wird. Thin-Provisioning sorgt dafür, dass der ungenutzte Speicher für andere Zwecke zur Verfügung steht. Sollte mehr Speicher gefordert sein, lässt sich automatisch, ohne Zutun der Administration mehr Kapazität zuordnen.

Den Weg zu Ende denken

Letztlich hat IT nur ein Ziel: Die richtigen Informationen rechtzeitig bereit zu stellen. Eine konsolidierte Speicher-Struktur trägt maßgeblich dazu bei, dieses Ziel zu erreichen. Denkt man den durch Konsolidierung und Virtualisierung vorgezeichneten Weg zu Ende, führt er zu einer Grid-Struktur, also einer Gitterstruktur.

Heute fehlen noch Komponenten wie etwa n-Node Clustering und ein Global Name Space. Nach der Trennung der Festplatten von den Datenvolumes liefert dieser letzte Baustein für ein Storage-Grid die ultimative Abstraktionsschicht aus Sicht des Nutzers: Die Kenntnis des Speicherorts seiner Daten erledigt sich. Diese Art des Datenzugriffs ist analog zu URLs und dem Zugriff auf Web-Informationen. Auf welchem Webserver die Informationen liegen, ist völlig irrelevant.

Mehr lesen über