Virtualisierung Komplex, aber nützlich

Die Virtualisierung eines Servers ermöglicht eine bessere Ausnutzung der vorhandenen Kapazitäten und eine leichtere Handhabung der Systeme. Im Interview beschreibt Joseph Reger von Fujitsu Siemens Computers die verschiedenen Arten der Virtualisierung, künftige Anwendungsmöglichkeiten und daraus resultierende Probleme.
Von Daniela Longerich

Frage: Was versteht man in der IT unter Virtualisierung?

Reger: Virtualisierung führt eine Abstraktion der Systemkomponenten oder gar ganzer Systeme ein. Deren Beschaffenheit und Zustand tritt dabei in den Hintergrund. Da Details in der Handhabung außer Acht gelassen werden können, sind wir in der Lage, komplexe Systeme besser zu beherrschen und auszunutzen. So kann man verschiedene Systeme auf die gleiche Art verwalten und benutzen, oder ein einziges System wie viele Systeme behandeln, oder sogar viele Systeme als ein einziges. Das Ergebnis dieser Möglichkeiten ist eine flexiblere Nutzung aller Ressourcen, eine bessere Ausnutzung der vorhandenen Kapazität, letztendlich also eine sehr viel bessere Wirtschaftlichkeit.

Es gibt mittlerweile viele verschiedene Arten der Virtualisierung. Diese voneinander abzugrenzen ist mir sehr wichtig. Es besteht sonst schnell die Gefahr, dass verschiedene Dinge vermischt werden. Die unterschiedlichen Virtualisierungsformen sind zwar nicht unbedingt gleichberechtigt, aber alle gut und nützlich.

In der letzten Zeit ist bei Servern sehr viel über Hardwarevirtualisierung gesprochen worden – wie es auch beim Einsatz von VM-Ware geschieht. Hier werden mehrere Instanzen eines Betriebssystems oder einer Anwendungsumgebung auf einem einzigen Rechner installiert. Aus der Sicht der Anwendungsschicht existieren dann mehrere Server: die Serverhardware ist eine virtuelle Instanz.

Eine weitere, über die bisher relativ wenig geschrieben wurde, ist die Anwendungsvirtualisierung. Damit erreicht man, dass die Hardware und das Betriebssystem echte Instanzen sind, aber die Anwendung virtuell installiert wird. Allerdings ist Anwendungsvirtualisierung hauptsächlich in der Windows-Welt interessant, denn dort gibt es die Schwierigkeit, dass Anwendungen auf Rechnern nicht lauffähig sind, wenn sie dort vorher nicht installiert wurden. Diese Technik erreicht, dass es mit ein wenig Aufwand doch möglich ist.

Eine Ebene tiefer hätten wir dann die Techniken, die das Betriebssystem betreffen. Heute ist praktisch jeder davon überzeugt – ich mehr oder minder auch – dass auf der Betriebssystemebene eine Hypervisorbasierte Virtualisierung die beste Lösung ist.

In der Industrie drohen derzeit verschiedene Lager zum Thema Hypervisor zu entstehen. Im Wesentlichen ist die große Diskussion, ob der Hypervisor zum Betriebssystem oder zur Hardware gehört und von wem er bereitgestellt und ausgeliefert wird. Es wird sogar noch ein bisschen komplizierter, weil Intel  jetzt die Frage aufgeworfen hat, ob der Hypervisor denn zum Server oder vielleicht doch eher zum Prozessor gehört und daher mit dem Chipsatz ausgeliefert wird. VM-Ware hat Microsoft  aufgefordert, offene Systeme zu unterstützen, bei denen der Hypervisor außerhalb des Betriebssystems frei verfügbar ist und direkt mit den Servern ausgeliefert wird. Auf diese Weise kann ein Schichtmodell gebaut werden, bei dem die Komponenten austauschbar sind und das Betriebssystem nicht mehr solch eine überragende Bedeutung hat. Das hätte viele Vorteile. Die Geschichte der Datenverarbeitung zeigt, dass die Innovation durch die Konkurrenzsituation bei solch einem offenen Modell viel besser vorankommt.

Wenn wir noch weiter runtergehen, landen wir bei der Virtualisierung der Peripherie. Dazu gehören Speichervirtualisierung oder Bandvirtualisierung, aber auch I/O-Virtualisierung in Richtung Netze, also wie Server miteinander oder mit den Netzwerken verbunden sind.

Vorteile der Virtualisierung

Frage: Was sind die Vorteile der Virtualisierung?

Reger: Es gibt Primärvorteile und Sekundärvorteile. Zu den ersteren gehören die bereits erwähnte und zum Teil drastisch bessere Ausnutzung der vorhandenen Kapazitäten, die leichtere Handhabung der Systeme und flexiblere Nutzungsmöglichkeiten, um den Abgleich zwischen Geschäftsanforderungen und IT-Einsatz optimieren zu können.

Es gibt aber auch die Sekundärvorteile. In der Industrie gibt es zurzeit große Anstrengungen, die Energieeffizienzfragen zu adressieren. Virtualisierung hilft da mehr, als alle anderen technischen Möglichkeiten. Denn wenn ich durch Virtualisierung die Physik halbiere, dann habe ich automatisch auch eine Halbierung des Energieverbrauches erzielt.

Es gibt jedoch Konsequenzen. Dadurch, dass der Hypervisor dazwischen geschaltet ist, verliert das Betriebssystem den direkten Zugriff auf die Hardware, den man bisher für das Powermanagement braucht. Wenn das jetzt künftig alles virtualisiert ist und überall ein Hypervisor dazwischen sitzt, dann werden die Powermanagementfunktionen des Betriebssystems nicht mehr wie bisher funktionieren. Diese Fähigkeit muss man also in den Hypervisor integrieren.

Eine weitere Frage ist, was in einer solchen Umgebung organisiert wird. Bisher gab es Hardwaremanagement, ein Management der Instanzen des Betriebssystems und der darauf laufenden Anwendungen. Wenn die Virtualisierung weitläufig eingeführt wird, werden wir künftig auch die Hypervisor managen müssen, denn sie tauchen jetzt als Systemkomponenten auf. Da stellt sich die Frage, ob man über das Betriebssystem auf diese zugreift oder unabhängig davon. Der Wunsch nach Administrierbarkeit entsteht auch dadurch, dass durch die Virtualisierung die Anzahl der physikalischen Komponenten erstmal reduziert wird – dafür macht man es ja. Aber die Anzahl der virtuellen Instanzen wird überproportional erhöht. Und somit ist die Architektur aus Perspektive des Systemmanagements komplizierter als vorher.

Frage: Es gibt also noch keine Managementlösung?

Reger: Doch, jeder Anbieter hat seine eigene. Zurzeit liegt der Added-Value der Hersteller gerade in dem Bereich. Mit den Hypervisorn selber lässt sich kaum Geld verdienen, also machen die Anbieter das über die Managementlösungen. Nur ist es aus Sicht des Kunden ein Problem, dass er, wenn er mehrere Virtualisierungslösungen einsetzt, für jede ein eigenes Managementtool braucht. Daher haben wir für unsere Highend-Systeme, die Blade Frames, einen anderen Weg gewählt. Dort realisieren wir Management, Provisionierung und Verwaltung mit einer einheitlichen Software, unabhängig davon, welche Virtualisierungstechnologie verwendet wird.

Künftige Einsatzmöglichkeiten

Frage: Wie sehen Sie die Einsatzmöglichkeiten von Virtualisierung in der Zukunft?

Reger: Ich bin überzeugt, dass Virtualisierung nicht die letzte Technik ist, mit der wir uns je beschäftigen werden. Sie ist zwar sehr interessant und intellektuell herausfordernd, aber eigentlich nicht das Ziel. Nachdem wir virtualisiert haben, wollen wir diese vielen Möglichkeiten nicht immer selber durchführen müssen. Also werden wir automatisieren. Ziel sind Umgebungen, die automatisch flexibel auf sich verändernde Anforderungen reagieren können. Ein Paradebeispiel dafür haben wir gerade im frühen Produktstadium. Wir haben es geschafft, unsere durch Virtualisierung frei provisionierbare Hardware so mit der Software zu verbinden, dass das, was die Hardware so virtuos kann, nicht vom Operator ausgelöst werden muss, sondern nach den Bedürfnissen der laufenden Anwendungen automatisch gestaltet wird.

Obwohl es typischerweise so ist, das solche Durchbrüche heute oft auf Linux realisiert werden, da Linux in vielen Fällen die Spielwiese der Entwickler ist, gibt es da momentan eine wunderbare Lösung, die nur auf Windows läuft. Und zwar aus dem Grund, dass dort ein besonderer Service von Microsoft  implementiert wurde, der mit den laufenden Anwendungen stets verbunden ist, um ein aktuelles Bild über die Befindlichkeiten aller Anwendungen zu liefern. Der Name dieses Services ist System Center Operation Manager (SCOM oder MOM). Wenn beispielsweise der Sharepoint Server nicht mehr performant genug läuft, dann meldet der System Center Operation Manager dies. Auf herkömmlicher Hardware würde dieser Umstand auf dem Bildschirm angezeigt werden, aber sonst würde nichts passieren, bis der menschliche Operator eingreift.

Bei uns ist das anders. Unser PAN-Manager kann die Hardware neu konfigurieren. Also haben wir ihn mit dem System Center Operation Manager verbunden. Sobald es jetzt ein Problem gibt, wird eine Antwort vom PAN-Manager generiert und die Hardware wird ohne Eingriff eines Administrators umkonfiguriert. Mit dieser Entwicklung ist Virtualisierung nicht mehr das Ziel, sondern nur noch ein Mittel um das eigentliche Ziel, Automatisierung des Betriebes, zu erreichen.

Frage: Die bisher erwähnten Technologien kommen ja hauptsächlich auf Servern zum Einsatz. Wie sieht es mit Virtualisierung auf PCs aus?

Reger: Virtualisierung macht sich in der letzten Zeit auch auf der Clientseite breit – allerdings aus anderen Gründen. In der Serverwelt haben wir Virtualisierung gebraucht, um eine bessere Auslastung, bessere Handhabbarkeit und mehr Flexibilität zu erzielen. In der Clientlandschaft zählt das Argument bessere Auslastung jedoch nicht. Die meisten Desktop-PCs werden ohnehin kaum je an ihre Grenzen gebracht. Hier nutzt man Virtualisierung eher dazu, die eigene Umgebung in eine virtuelle Maschine zu packen – etwa um sie mit sich nehmen zu können. So kann man gesicherte und transportable Umgebungen schaffen.

Für die sichere Umgebung ist die Internetnutzung ein Paradebeispiel. Man surft zum Beispiel in einer VM-Ware-Umgebung und die einzige laufende Anwendung ist ein Browser. Der große Vorteil ist, dass es während des Surfens die anderen Teile des Systems quasi nicht gibt, da sie sich außerhalb der virtuellen Hülle befinden. Es ist also egal, was ich mir in dieser Zeit "einfange", die übrigen Teile des Systems sind geschützt. Ich kenne Leute, die Onlinebanking grundsätzlich nur in einer virtuellen Maschine machen.

Letztlich könnte ich durch die Portabilität meine Umgebung einfach mitnehmen und habe so auch zu Hause oder unterwegs immer die gleichen Bedingungen. Bislang war das nur mit einem Laptop möglich, allerdings sehen die meisten Firmen es nicht gerne, wenn man private Daten auf einem Firmenlaptop speichert. Wobei die Virtualisierungstechnik durch die Isolation die sicherheitstechnische Trennung ermöglicht. Der private und der geschäftliche Teil können einzeln hochgefahren werden, auch nebeneinander laufen, haben aber nichts miteinander zu tun. Ein mögliches Szenario wäre, dass ein Mitarbeiter die Softwareumgebung künftig nur noch virtuell bekommt und sein eigenes Laptop mitbringen muss. Oder man könnte seine komplette Umgebung auf einen USB-Stick laden und mitnehmen. Das wäre von Vorteil für Mitarbeiter, die zwar an verschiedenen Lokationen arbeiten, aber nicht unterwegs. Die also nur die Portabilität nutzen, nicht aber die anderen Vorteile, die ein Laptop bietet.

Lizenzprobleme

Frage: Könnte man in dem Fall nicht ein Problem mit der Lizenzierung bekommen?

Reger: Doch, das Problem haben wir noch nicht gelöst. Zurzeit sind Betriebssysteme ja meist noch an Rechner gebunden. Und die modernen Windows-Betriebssysteme fragen sogar Hardwareeigenschaften ab, so dass man – wenn man mehrere Komponenten austauscht – durchaus eine Fehlermeldung bekommen kann. Diese Frage muss also für die virtuelle Welt dringend gelöst werden. Wir brauchen Lizenzierungsmodelle, die nichts mehr mit der Physik zu tun haben, sondern höchstens mit der virtuellen Maschine. Ansonsten ist das alles nicht praktikabel. Microsoft  ist da recht fortschrittlich und erlaubt nun pauschal vier Kopien pro Lizenz. Aber eigentlich brauchen wir ein bedarfsorientiertes Modell. Lizenziert sein muss die Instanz, die gerade in Betrieb ist. Allerdings ist das technisch nicht so einfach zu realisieren. Mit ein Grund, warum Linux so interessant ist. Dort gibt es dieses Problem zum Teil gar nicht.

Frage: Gibt es für den Bereich Virtualisierung Standardisierungsgremien?

Reger: Genau so, wie in der Systemlandschaft immer wieder der Wunsch nach Standardisierung hochkommt, wird das auch bei der Virtualisierung geschehen. Bis auf wenige Ausnahmen sind sich alle einig, dass es nötig ist und sind auch bereit, mitzumachen. Ich bin sicher, es wird nicht nur normierte Spezifikationen und Schnittstellen geben, sondern auch Standardkomponenten. Das wird leichter vorankommen, wenn allen klar ist, dass Virtualisierung nur der Weg zur nächsten Stufe der Entwicklung ist: der Automatisierung.

Mehr lesen über