Optimal aus­ge­las­te­te Res­sour­cen und Ser­ver­kon­so­li­die­rung für re­du­zier­te Kosten und Hardware – das bietet Ser­ver­vir­tua­li­sie­rung. Hierzu stehen drei Arten der Vir­tua­li­sie­rung zur Verfügung: voll­stän­di­ge Vir­tua­li­sie­rung, Pa­ra­vir­tua­li­sie­rung und Vir­tua­li­sie­rung auf Be­triebs­sys­tem­ebe­ne.

Was ist Ser­ver­vir­tua­li­sie­rung?

De­di­zier­te physische Server, die bestimmte Aufgaben erfüllen, haben ein festes Be­triebs­sys­tem und klar de­fi­nier­te Speicher- und Re­chen­power. Der Nachteil an einzelnen phy­si­schen Servern im Re­chen­zen­trum ist, dass sie je nach Aufgaben und Workloads sehr viel Platz, War­tungs­auf­wand und Energie fordern. Server, denen eine Aufgabe oder Ap­pli­ka­ti­on zu­ge­wie­sen wird, können sich nicht Hardware und OS mit anderen Ap­pli­ka­tio­nen teilen. Meist sind sie auch nicht in der Lage, mehrere Aufgaben gleich­zei­tig zu erledigen. Die Lösung für dieses Problem lautet Ser­ver­vir­tua­li­sie­rung.

Statt die IT-In­fra­struk­tur durch weitere physische Server zu ver­grö­ßern, verteilt man durch Ser­ver­vir­tua­li­sie­rung vor­han­de­ne physische Hardware-Res­sour­cen auf mehrere virtuelle Um­ge­bun­gen, die sich un­ab­hän­gig von­ein­an­der verwenden lassen. An der In­fra­struk­tur ändert sich nichts, während sich die Ka­pa­zi­tä­ten ef­fi­zi­en­ter nutzen lassen. Auf einem phy­si­schen Server lassen sich durch Vir­tua­li­sie­rung mehrere un­ter­schied­lich kon­fi­gu­rier­te, un­ab­hän­gi­ge Be­triebs­sys­te­me nutzen und Ap­pli­ka­tio­nen parallel betreiben. Die vir­tu­el­len Server arbeiten isoliert von­ein­an­der, beugen Leerlauf durch effizient verteilte Prozesse vor und lasten vor­han­de­ne Res­sour­cen optimal aus. Sie pro­fi­tie­ren auf diese Weise von einer energie- und kos­ten­spa­ren­den Ser­ver­kon­so­li­die­rung.

Die Grundlage von Ser­ver­vir­tua­li­sie­rung

Um einen oder mehrere physische Server durch Vir­tua­li­sie­rung in un­ab­hän­gi­ge Instanzen und Um­ge­bun­gen zu teilen, nutzen Server-Ad­mi­nis­tra­to­rin­nen und -Ad­mi­nis­tra­to­ren spezielle Vir­tua­li­sie­rungs-Software. Durch diese laufen virtuelle Server isoliert von­ein­an­der. Die un­ab­hän­gi­gen Server sind somit in der Lage, eigene Be­triebs­sys­te­me und Ap­pli­ka­tio­nen zu nutzen sowie Aufgaben ei­gen­stän­dig und getrennt von anderen vir­tu­el­len Servern zu erledigen.

Die durch Ser­ver­vir­tua­li­sie­rung ent­stan­de­nen vir­tu­el­len Instanzen werden unter anderem als Virtual Private Server (VPS), Container, Gast­sys­te­me oder Emu­la­tio­nen be­zeich­net. Durch die Vir­tua­li­sie­rung kommt es in der Regel zur Mas­kie­rung von phy­si­schen Ser­ver­res­sour­cen wie Be­triebs­sys­te­men und Pro­zes­so­ren. Ob die phy­si­schen Res­sour­cen durch die steuernde Vir­tua­li­sie­rungs-Software vor den vir­tu­el­len Servern verborgen bleiben oder für alle vir­tu­el­len Server sichtbar sind, hängt von der Art der Vir­tua­li­sie­rung ab.

Wie funk­tio­niert Ser­ver­vir­tua­li­sie­rung?

Die Funk­ti­ons­wei­se von Ser­ver­vir­tua­li­sie­rung ist im Grunde leicht zu verstehen. Konkret kommt die Vir­tua­li­sie­rung wie folgt zum Einsatz:

Am Anfang gilt es, einen Server für die geplante Vir­tua­li­sie­rung aus­zu­wäh­len. Dabei handelt es sich in der Regel um einen einzelnen de­di­zier­ten Server, der Res­sour­cen ef­fek­ti­ver nutzen und Workloads besser ver­ar­bei­ten soll. Als nächstes erfolgt die Über­prü­fung aus­ge­las­te­ter Speicher, Pro­zes­so­ren und Fest­plat­ten, um ver­füg­ba­re Ka­pa­zi­tä­ten für eine oder mehrere virtuelle Maschinen zu ermitteln. Hierdurch lässt sich ein­schät­zen, wie viele virtuelle Instanzen zur Anwendung kommen und wie viel Re­chen­leis­tung sie bieten können.

Für die Vir­tua­li­sie­rung kommt in der Regel eine spezielle Hy­per­vi­sor-Software wie Hyper-V von Microsoft, vSphere von VMware oder PlateSpin Migrate zum EInsatz. Ein Hy­per­vi­sor übernimmt die Aufgabe der Par­ti­tio­nie­rung der vor­han­de­nen Hard- und Software. Hy­per­vi­so­ren lassen sich hierbei u. a. in folgende zwei Typen un­ter­schei­den:

  • Hy­per­vi­sor-Typ 1: Die Aus­füh­rung erfolgt direkt auf dem Server als so­ge­nann­ter Bare-Metal-Hy­per­vi­sor (bei­spiels­wei­se für virtuelle Maschinen).
  • Hy­per­vi­sor-Typ 2: Die Aus­füh­rung erfolgt auf der Software-Ebene des Host-Be­triebs­sys­tems (eignet sich meist für Test­um­ge­bun­gen).

Durch die Vir­tua­li­sie­rung und Par­ti­tio­nie­rung können unter anderem virtuelle An­wen­dun­gen, Speicher, Res­sour­cen, virtuelle Server oder virtuelle Netzwerke entstehen.

Tipp

Fertig vir­tua­li­sier­te, preis­güns­ti­ge Ser­ver­lö­sun­gen bieten Ihnen die IONOS vServer und Cloud Server mit der passenden Kon­fi­gu­ra­ti­on für Ihren Bedarf.

Vorteile und Nachteile von Ser­ver­vir­tua­li­sie­rung

Vorteile

Pro­fes­sio­nel­le Ser­ver­vir­tua­li­sie­rung bringt viele Vorzüge mit sich, die sich vor allem im re­du­zier­ten Energie- und Kos­ten­auf­wand bemerkbar machen. Da weder die An­schaf­fung und Ein­rich­tung noch die Wartung von zu­sätz­li­cher phy­si­scher Ser­ver­in­fra­struk­tur anfällt, pro­fi­tie­ren Nutzende von optimaler Fle­xi­bi­li­tät und Ska­lier­bar­keit. Vor­han­de­ne Ka­pa­zi­tä­ten lassen sich durch eine optimale Res­sour­cen­aus­las­tung und Ka­pa­zi­täts­stei­ge­rung in vor­han­de­nen Servern effektiv nutzen. Workloads werden auf virtuelle Server verteilt und parallel ohne Leerlauf bewältigt.

In Sachen Si­cher­heit im Re­chen­zen­trum sowie Cloud-Si­cher­heit bieten vir­tua­li­sier­te Server durch leichtere Da­ten­wie­der­her­stel­lung und -sicherung einen klaren Disaster-Recovery-Vorteil. Durch Vir­tua­li­sie­rung werden Server von­ein­an­der ab­ge­schot­tet und bieten weniger An­griffs­flä­che.

Weitere Vorteile der Ser­ver­vir­tua­li­sie­rung sind:

  • Update-In­stal­la­tio­nen erfolgen deutlich schneller, da alle Server in einem phy­si­schen System liegen.
  • Web­hos­ting steht nicht nur einfacher, sondern auch günstiger zur Verfügung.
  • Daten und Prozesse lassen sich je nach Un­ter­neh­men und Art der Vir­tua­li­sie­rung in eine Private Cloud oder Public Cloud auslagern.
  • Die Ein­rich­tung von vir­tu­el­len Test­um­ge­bun­gen kann zur Prüfung neuer Ap­pli­ka­tio­nen und Software-Tools dienen.
  • Die Live-Migration von Systemen gelingt durch die Ver­la­ge­rung von Ar­beits­pro­zes­sen einfacher und ohne Ausfälle.
  • Netzwerke und Re­chen­ka­pa­zi­tä­ten bieten eine hohe Feh­ler­to­le­ranz, Hoch­ver­füg­bar­keit und keine un­ge­plan­ten Aus­fall­zei­ten oder Leerläufe.
  • Die vir­tu­el­len Instanzen und Um­ge­bun­gen arbeiten un­ab­hän­gig und isoliert von­ein­an­der, was zu ef­fi­zi­en­te­ren Ge­schäfts­pro­zes­sen führt.

Nachteile

Trotz aller Vorteile gilt es auch die möglichen Nachteile und Risiken der Ser­ver­vir­tua­li­sie­rung in Au­gen­schein zu nehmen. Dazu zählen vor allem mögliche hohe An­fangs­kos­ten durch die Vir­tua­li­sie­rungs­soft­ware oder IT-Experten. Ver­gli­chen mit den An­schaf­fungs- und War­tungs­kos­ten phy­si­scher Server lässt sich dieser Nachteil jedoch durchaus ver­nach­läs­si­gen.

Hin­sicht­lich Si­cher­heit stimmt es zwar, dass von­ein­an­der un­ab­hän­gi­ge virtuelle Server mehr Aus­fall­si­cher­heit und weniger An­griffs­flä­che bieten. Auf der anderen Seite stellt jedoch ein Angriff auf die Vir­tua­li­sie­rungs­platt­form als Ganzes ein nicht zu un­ter­schät­zen­des Risiko dar. Das gilt vor allem, wenn die Daten von mehreren Kunden auf vir­tu­el­len Servern in einer phy­si­schen Umgebung liegen.

Zu den weiteren Nach­tei­len zählen:

  • Je nach Vir­tua­li­sie­rungs­soft­ware sind Un­ter­neh­men mög­li­cher­wei­se an Lizenzen gebunden (Vendor-Lock-in).
  • Bei sehr großen Workloads kommt es mög­li­cher­wei­se zu hoher Aus­las­tung und Spei­cher­be­le­gung.

Arten der Ser­ver­vir­tua­li­sie­rung

Bei der Anwendung von Ser­ver­vir­tua­li­sie­rung kommen drei ver­schie­de­nen Ansätze in Frage.

Voll­stän­di­ge Vir­tua­li­sie­rung

Hierbei kom­mu­ni­ziert eine Hy­per­vi­sor-Software, auch Virtual Machine Monitor (VMM) genannt, direkt mit dem Speicher und der CPU des Servers. Die Software verwaltet, ko­or­di­niert und überwacht die vir­tu­el­len Server und Instanzen im phy­si­schen System, um sie nach dem Host/Gast-Prinzip isoliert und un­ab­hän­gig von­ein­an­der zu halten. Gast-Instanzen wissen somit nicht, dass sie keine phy­si­schen Res­sour­cen nutzen. Auf diese Weise werden sämtliche phy­si­schen Res­sour­cen maskiert, sodass die vir­tu­el­len Server und Gäste „nichts von­ein­an­der wissen“. Über den Hy­per­vi­sor erfolgt auch die Auf­tei­lung der vir­tu­el­len Res­sour­cen. Bei diesem Ansatz ist zu bedenken, dass der Hy­per­vi­sor selbst aus­rei­chend physische Res­sour­cen benötigt.

Pa­ra­vir­tua­li­sie­rung

Bei der Pa­ra­vir­tua­li­sie­rung kommt ebenfalls ein Virtual Machine Monitor zum Einsatz. Virtuelle Instanzen werden jedoch nicht vor­ein­an­der verborgen. Das physische Netzwerk arbeitet somit als Einheit. Da physische Res­sour­cen nicht maskiert werden, bleiben Gast-Instanzen und virtuelle Maschinen über die An­for­de­run­gen an die Rech­ner­leis­tung in­for­miert.

Vir­tua­li­sie­rung auf Be­triebs­sys­tem­ebe­ne

Bei diesem Ansatz kommt kein Hy­per­vi­sor zur Anwendung. Die Ko­or­di­na­ti­on und Umsetzung der Vir­tua­li­sie­rung übernimmt die in­te­grier­te Vir­tua­li­sie­rungs­funk­ti­on des je­wei­li­gen Be­triebs­sys­tems. Der Nachteil daran: Alle vir­tu­el­len Server müssen dasselbe Be­triebs­sys­tem nutzen.

Al­ter­na­ti­ven zur Vir­tua­li­sie­rung eigener Hardware

Wer eine Al­ter­na­ti­ve zur Vir­tua­li­sie­rung eigener phy­si­scher Server sucht, findet im Cloud Computing und im Dis­tri­bu­ted Computing die Lösung. Damit können Un­ter­neh­men im Grunde gänzlich auf physische Re­chen­zen­tren und Server ver­zich­ten und IT-Res­sour­cen kos­ten­spa­rend in die Cloud von Webhosts und in verteilte, leis­tungs­star­ke Sys­tem­ar­chi­tek­tu­ren auslagern. Software, Hardware, Rechen- und Spei­cher­ka­pa­zi­tä­ten erhalten Sie somit als virtuelle Dienst­leis­tung nach dem Prinzip XaaS.

Weitere Al­ter­na­ti­ven zur Vir­tua­li­sie­rung eigener Res­sour­cen sind:

  • SaaS (Software as a Service)
  • PaaS (Platform as a Service)
  • IaaS (In­fra­struc­tu­re as a Service)
Hinweis

Ser­ver­vir­tua­li­sie­rung ist die Grundlage für Cloud Computing im Sinne von Software Defined Data Centers (SDDC) und kommt ins­be­son­de­re hier zur Anwendung. Nach dem Prinzip „IT as a Service“ bieten Software Defined Data Centers voll­stän­dig vir­tua­li­sier­te IT-In­fra­struk­tu­ren bestehend aus Rechen- und Spei­cher­ka­pa­zi­tä­ten sowie vir­tua­li­sier­te Tools und Kom­po­nen­ten wie Firewalls, Load Balancer oder Switches.

Fazit: Warum lohnt sich Ser­ver­vir­tua­li­sie­rung?

Die Ser­ver­vir­tua­li­sie­rung erinnert ein wenig an magische Häuser, die von innen viel mehr Räume bieten als es von außen scheint. In ähnlicher Weise lassen sich durch vir­tua­li­sier­te Server physische In­fra­struk­tu­ren nach innen ver­grö­ßern, statt nach außen kosten- und zeit­in­ten­si­ve IT-Anlagen zu bauen und zu betreiben. Hinzu kommt, dass sich Web­hos­ting-Dienste sparsam und effizient zur Verfügung stellen lassen. Statt nur geringe Anteile der Ser­ver­ka­pa­zi­tät zu nutzen und Workloads un­gleich­mä­ßig auf Servern im Netzwerk zu verteilen, steigert Ser­ver­vir­tua­li­sie­rung die Ef­fek­ti­vi­tät und Pro­duk­ti­vi­tät. Durch eine zen­tra­li­sier­te Ser­ver­ver­wal­tung lassen sich zudem die Si­cher­heit und der Da­ten­schutz erhöhen.

Tipp

Ver­wirk­li­chen Sie an­spruchs­vol­le Projekte mit den pro­fes­sio­nel­len Lösungen von IONOS Cloud, der leis­tungs­star­ken eu­ro­päi­schen Cloud-Plattform!

Zum Hauptmenü