Warum Servervirtualisierung?

Dieser Artikel widmet sich dem Ressourcenmanagement im betrieblichen Umfeld.

Bisher veränderte keine Technologie unseren Arbeitsalltag so stark wie die Digitalisierung, egal ob im Handel, der Entwicklung oder Industrie. Waren die ersten Computer ursprünglich noch dazu gedacht dem Menschen bei komplexen Berechnungen zu unterstützen, so stiegen die Anforderungen an ein modernes und zeitgerechtes Computersystem sehr rasch an.

Mit zunehmender Leistung ging ein stetig steigender Energieverbrauch unweigerlich Hand in Hand. Wurden anfangs noch „ausrangierte Office-PC´s“ als Server eingesetzt, die bequem unter dem Bürotisch Platz fanden, kommt heute kaum ein Bürogebäude ohne eigenen Serverraum aus.

Aktuell benötigt nahezu jede Applikation aus Sicherheits-, Kompatibilitäts- oder organisatorischen Gründen eine eigene Umgebung – sprich einen eigenen Server.

Da die Rechensysteme mit zunehmender Leistung auch große Mengen an Abwärme produzieren, sind Klimaanlagen in Serverräumen längst zum Standard geworden.

Um bei Neuanschaffungen oder im Rahmen von Aktualisierungen den ohnehin meist schon knappen Platz im Serverraum nicht zusätzlich zu schmälern bzw. auch um Energiekosten zu senken, werden die Ressourcen auf einem Server gebündelt.

So wird zB an Stelle von mehreren unterschiedlichen Systemen 1 ausreichend dimensionierter Server eingesetzt, der seine Ressourcen allen, nun virtuellen Servern, zur Verfügung stellt.

Servervirtualisierung einfach erklärt

Computersysteme und Server bestehen im wesentlichen aus folgenden Komponenten:

  • Einem Betriebssystem wie Windows Server Edition oder Linux/VMWARE
  • dem Prozessor = CPU
  • dem Arbeitsspeicher
  • und Festplattenspeicherkapazät
  • bzw. externem Datenspeicher, Storage genannt, wie SAN, NAS, DAS…

Wie funktioniert Servervirtualisierung denn nun genau?

Servervirtualisierung bedeutet, dass sich mehrere Betriebssysteme (Gast) 1 gemeinsame Ressource (Host) – also 1 Server teilen. Meist geschieht das ohne Berührungspunkte untereinander. Zuständig für dieses Auseinanderhalten der einzelnen virtuellen Server ist ein so genannter Hypervisor – eine Zwischenschicht zwischen der vorhandenen Hardware (Host) und dem virtuellen Server (Gast).

Welche Arten der Virtualisierung gibt es?

Grob lassen sich in der Virtualisierung 3 Ansätze unterscheiden.

  • Virtuelle Maschinen

In diesem Schema wird nach dem Host/Gast Prinzip gearbeitet. Dabei wird der physikalische Server als Host bezeichnet, die virtuellen Maschinen (VM´s) sind dessen Gäste.

Hierbei wird für jedes Gastsystem die Hardware separat emuliert – dadurch sind mehrere Gastbetriebssysteme auf ein und derselben Hardware möglich, die vollständig voneinander isoliert betrieben werden können. So ist es möglich nur ein einziges Gastbetriebssystem neu zu starten, während alle übrigen Systeme auf diesem Server wie gewohnt weiterlaufen.

  • Paravirtuelle Maschinen

Dieser Typ arbeitet ebenfalls nach dem Host/Gast Prinzip mit dem Unterschied, dass hier die einzelnen Gastbetriebssysteme direkt mit der einmalig emulierten Hardware des Hypervisors kommunizieren, die für alle virtuellen Maschinen bereitgestellt wird. Daraus ergibt sich der Vorteil, dass alle Gastbetriebssysteme auf dem gleichen Host die jeweiligen Anforderungen der anderen Gäste kennen und somit die Gesamtleistung besser aufgeteilt werden kann.

  • Virtualisierung auf Betriebssystem-Ebene

Bei dieser Variante wird am Hostsystem ein gemeinsames Betriebssystem für alle Gastsysteme bereitgestellt – jenes des Hostsystems. Ein aufwändiges Emulieren der Hardware entfällt somit komplett.

Auch hier handelt jede virtuelle Maschine unabhängig. Diese Variante unterliegt Einschränkungen – so ist es in dieser Methode nicht möglich ein Windows- und Linuxsystem zeitgleich auf demselben Hostsystem zu betreiben. Zusätzlich werden ebenfalls die meisten Programme und Bibliotheken des Hostsystems mit genutzt.