Schon einmal etwas von Hy­per­kon­ver­genz (Hy­per­con­ver­gence) gehört? Nein? Das sollten Sie aber, die An­for­de­run­gen an die Un­ter­neh­mens-IT steigen kon­ti­nu­ier­lich: Immer größere Da­ten­men­gen müssen in kürzerer Zeit über die Server laufen, ohne dass dafür mehr Budget zur Verfügung stünde. Deshalb sind im Bereich der IT-In­fra­struk­tur hy­per­kon­ver­gen­te Systeme derzeit hoch­ge­fragt. Re­chen­zen­tren arbeiten heute in der Regel mit zentralen Storage-Systemen. Hyper-converged in­fra­struc­tu­re (HCI) beruht hingegen auf normaler Hardware: Rechner mit ein­ge­bau­ten Fest­plat­ten oder SSDs. Der große Vorteil dieser Struktur liegt darin, dass alles von einem Ort aus verwaltet werden kann: Vir­tua­li­sie­rung, Netzwerk und Speicher.

Was ist eine hy­per­kon­ver­gen­te In­fra­struk­tur?

„Kon­ver­genz“ meint zunächst einmal nur, dass mehrere Dinge an einem Punkt zu­sam­men­lau­fen. So funk­tio­nie­ren auch kon­ver­gen­te In­fra­struk­tu­ren: Ver­schie­de­ne IT-Kom­po­nen­ten werden zu einem Paket zu­sam­men­ge­fügt. Um die Her­aus­for­de­run­gen der Vir­tua­li­sie­rung zu meistern, hat man in den letzten Jahren die Kon­ver­genz zur Hy­per­kon­ver­genz wei­ter­ent­wi­ckelt. Die Schritte von tra­di­tio­nel­ler In­fra­struk­tur zur HCI folgen dabei einer klaren Richt­schnur: mehr Effizienz durch Ver­ein­fa­chung.

Wie ist tra­di­tio­nel­le IT-In­fra­struk­tur aufgebaut?

Das Re­chen­zen­trum eines Un­ter­neh­mens besteht klas­si­scher­wei­se aus mehreren Kom­po­nen­ten: Network, Storage, Compute und (im besten Fall) Back-up/Disaster Recovery. Alle Teil­aspek­te laufen getrennt von­ein­an­der, auf un­ter­schied­li­cher Hardware und mit in­di­vi­du­el­len Software-Lösungen. Ad­mi­nis­tra­to­ren verwalten die Kom­po­nen­ten un­ab­hän­gig von­ein­an­der. Die Kom­ple­xi­tät und In­di­vi­dua­li­tät der einzelnen Teile macht den Einsatz von Spe­zia­lis­ten nötig. Ein Netzwerk-Ad­mi­nis­tra­tor ist nicht gleich­zei­tig in der Lage, die Spei­cher­ver­wal­tung zu über­neh­men.

Eine so auf­ge­bau­te Un­ter­neh­mens-IT ist, wenn sie richtig verwaltet und gewartet wird, ein solides System, mit dem sich sehr gut arbeiten lässt. Gleich­zei­tig ist es aber auch sehr starr und kann nur mit viel Aufwand verändert werden. Neue Kom­po­nen­ten sind teuer, weshalb die Ver­ant­wort­li­chen sie meist nur in längeren Zyklen an­schaf­fen. Wenn sich ab­zeich­net, dass die be­stehen­den Mittel nicht mehr den An­for­de­run­gen ent­spre­chen, sollen die neu­an­ge­schaff­ten Geräte zumindest für die nächsten Jahre genutzt werden. Ka­pa­zi­tä­ten werden im Voraus und nicht be­darfs­ge­recht be­reit­ge­stellt.

Außerdem reagiert ein solches System sensibel auf Än­de­run­gen. Bei der Ein­rich­tung der IT verwenden Ad­mi­nis­tra­to­ren sehr viel Energie und Nerven darauf, alle Elemente so auf­ein­an­der ab­zu­stim­men, dass ein rei­bungs­lo­ses Arbeiten möglich wird. Neue Kom­po­nen­ten müssen deshalb mit Vorsicht ein­ge­bracht werden, weil sie sonst das tech­ni­sche Gleich­ge­wicht stören könnten.

Von der tra­di­tio­nel­len zur kon­ver­gen­ten In­fra­struk­tur

Im Vergleich dazu werden in kon­ver­gen­ten Struk­tu­ren die einzelnen Be­stand­tei­le stärker in einem ge­mein­sa­men Rahmen vereint, einer so­ge­nann­ten Appliance. Dabei bleiben die Kom­po­nen­ten generell un­ab­hän­gig von­ein­an­der, arbeiten aber Hand in Hand zusammen. Sie werden bereits im Vorfeld vom Anbieter des Kom­plett­sys­tems auf­ein­an­der ab­ge­stimmt, damit ein rei­bungs­lo­ses Zu­sam­men­spiel ga­ran­tiert ist. Mit mü­he­vol­ler Anpassung der einzelnen Hardware-Teile muss sich die IT also nicht mehr befassen.

Das hat auch or­ga­ni­sa­to­ri­sche Vorteile: Kon­ver­gen­te Systeme sorgen generell für mehr Ordnung im Ser­ver­raum. Die un­ter­schied­li­chen Hardware-Kom­po­nen­ten werden in Ser­ver­schrän­ken mit direkten Ver­bin­dun­gen zu­ein­an­der un­ter­ge­bracht. Dennoch bleiben es un­ab­hän­gi­ge Ein­zel­tei­le, die auch so gewartet werden müssen – und zwar vom ent­spre­chen­den Personal. Wenn der Zeitpunkt für ein Upgrade der Hardware gekommen ist, lassen sich Er­wei­te­run­gen nicht einfach hin­zu­kop­peln. Das komplette System muss angepasst werden. In diesem Aspekt un­ter­schei­den sich kon­ver­gen­te Systeme nicht von ihren klas­si­schen Vor­gän­gern.

Ent­wick­lun­gen der Vir­tua­li­sie­rung

Der Stand der Dinge heißt Vir­tua­li­sie­rung. Statt einzelne phy­si­ka­li­sche Um­ge­bun­gen zu erstellen, kreieren Ad­mi­nis­tra­to­ren virtuelle Ebenen, in denen sie Server, Speicher und Netzwerke be­reit­stel­len. So können un­ter­schied­li­che Server auf nur einer Plattform laufen. Dies sorgt dafür, dass Res­sour­cen viel besser aus­ge­schöpft werden können. Statt vieler einzelner Hardware-Lösungen, die jeweils nur in­ef­fi­zi­ent genutzt werden, stehen die Mittel in der vir­tu­el­len Umgebung für das gesamte System zur Verfügung. Ein Hy­per­vi­sor (d. i. die abs­tra­hie­ren­de Zwi­schen­ebe­ne) verteilt die Res­sour­cen gleich­mä­ßig an die einzelnen Kom­po­nen­ten.

Wichtig für eine funk­tio­nie­ren­de Vir­tua­li­sie­rung ist die schnelle Kom­mu­ni­ka­ti­on der be­tei­lig­ten Kom­po­nen­ten. So benötigen bei­spiels­wei­se auch virtuelle Maschinen Spei­cher­net­ze. Die so­ge­nann­ten LUNs (Logical Unit Numbers) können sowohl einfache Fest­plat­ten als auch Be­stand­tei­le des all­ge­mei­nen Spei­cher­netz­werks sein. So oder so muss die Ein­rich­tung durch einen Storage-Spe­zia­lis­ten erfolgen und nicht durch den Ad­mi­nis­tra­tor für die Vir­tua­li­sie­rung. Das führt zu Ver­lang­sa­mun­gen in Ar­beits­pro­zes­sen.

Außerdem ist der so­ge­nann­te I/O-Blender-Effekt ein Problem, mit dem Ad­mi­nis­tra­to­ren schon lange zu kämpfen haben: Alle vir­tu­el­len Maschinen (bei Virtual Desktop In­fra­struc­tu­re bei­spiels­wei­se) richten ihre Anfragen (Input/Output) an den Hy­per­vi­sor, und dort werden sie wie in einem Mixer (Blender) vermengt. Die Spei­cher­me­di­en brauchen dadurch länger, um die an­ge­for­der­ten Daten zu finden. Dies führt schließ­lich zu Ge­schwin­dig­keits­ver­lus­ten in der Da­ten­über­tra­gung.

Kom­po­nen­ten für Hy­per­kon­ver­genz

Eine hy­per­kon­ver­gen­te In­fra­struk­tur be­inhal­tet unter anderem folgende Kom­po­nen­ten:

  • in­te­grier­te Vir­tua­li­sie­rung (Hy­per­vi­sor)
  • vir­tua­li­sier­ter Speicher (Software-defined Storage)
  • vir­tua­li­sier­tes Netzwerk (Software-defined net­wor­king)
  • Steue­rungs-Software

Wie funk­tio­niert HCI?

Hy­per­kon­ver­gen­te Systeme wurden ge­schaf­fen, um den neuen Her­aus­for­de­run­gen an die Un­ter­neh­mens-IT, allen voran der zu­neh­men­den Vir­tua­li­sie­rung, gerecht zu werden. Das Prinzip beruht dabei auf dem Hand-in-Hand-Gedanken der Kon­ver­genz und geht noch einen Schritt weiter.

Ein solches System kommt als Kom­plett­pa­ket beim Kunden an. Alle Kom­po­nen­ten der In­fra­struk­tur finden sich innerhalb des vor­ein­ge­stell­ten Systems wieder. Die In­fra­struk­tur läuft dabei über eine virtuelle Maschine auf der Ebene des Hy­per­vi­sors ab. Die Hardware liegt wie ein gemeinsam genutzter Res­sour­cen­pool darunter. Hy­per­kon­ver­gen­te Systeme funk­tio­nie­ren somit prin­zi­pi­ell wie Cloud-Dienste: Auf einer abs­tra­hier­ten Ebene werden Services angeboten, die auf vir­tu­el­len Servern laufen, wobei die Hardware-Lösung im Hin­ter­grund für den Nutzer weder sichtbar noch von Bedeutung ist. HCI bietet Un­ter­neh­men aber – im Gegensatz zu Cloud-Anbietern – den Vorteil, dass ihre Daten vor Ort bleiben.

Das In­ter­es­san­te ist, dass alles auf gewohnter x86-Hardware läuft und Un­ter­neh­men keine Spe­zi­al­an­fer­ti­gun­gen benötigen. Das ver­ein­facht die Wartung. Möglich ist dies, da Hy­per­kon­ver­genz auf der Idee eines SDDC (Software-defined data center) basiert. Die ver­wen­de­te Hardware tritt in den Hin­ter­grund, alle be­nö­tig­ten Kom­po­nen­ten werden durch Software gestellt und verwaltet. So können Res­sour­cen auch leichter ver­scho­ben werden. Die Ver­wal­tungs-Software gibt Ad­mi­nis­tra­to­ren die Mög­lich­keit, innerhalb der vir­tu­el­len Umgebung Rechen- und Spei­cher­leis­tun­gen so be­reit­zu­stel­len, wie sie momentan gebraucht werden. Hard­ware­sei­tig sind die meisten hy­per­kon­ver­gen­ten Systeme sowohl mit Flash-Speichern als auch mit klas­si­schen Fest­plat­ten­lauf­wer­ken aus­ge­stat­tet und bieten so einen guten Ausgleich zwischen Kosten und Per­for­mance.

Vorteile von hy­per­kon­ver­gen­ten Systemen

HCI senkt die Kom­ple­xi­tät von Re­chen­zen­tren, was gleich­zei­tig in einem Anstieg von Effizienz und Pro­duk­ti­vi­tät auf ver­schie­de­nen Ebenen mündet.

  • Ad­mi­nis­tra­ti­on: Die Zu­sam­men­set­zung des IT-Teams verändert sich grund­le­gend durch die Ein­rich­tung einer hy­per­kon­ver­gen­ten In­fra­struk­tur. Ein tra­di­tio­nel­les Re­chen­zen­trum zeichnet sich durch viele un­ab­hän­gi­ge Lösungen aus. Netzwerk, Speicher und Re­chen­ak­ti­vi­tä­ten werden getrennt von­ein­an­der behandelt – nicht nur, was die Be­reit­stel­lung ent­spre­chen­der Hardware angeht. Auch die Ver­wal­tung dieser Systeme verteilt sich auf ver­schie­de­ne IT-Experten. Für jede Aufgabe gibt es eigenes Fach­per­so­nal. Bei HCI läuft alles über die gleiche Ober­flä­che. Alle Über­wa­chungs­vor­gän­ge können an einem Ort erfolgen. Das sorgt gleich­zei­tig dafür, dass Ge­ne­ra­lis­ten statt Spe­zia­lis­ten gefragt sind. Diese müssen mit der In­fra­struk­tur als Ganzes umgehen, statt sich aus­schließ­lich mit Teil­aspek­ten zu befassen. Im Endeffekt bedeutet dies auch, dass der Per­so­nal­be­darf der IT-Abteilung sinken wird.
  • Ein­rich­tung: Bei HCI handelt es sich um All-in-one-Lösungen. Daher basieren sie prin­zi­pi­ell auf der Idee von Plug-and-Play: Das System kommt an, wird an den Strom an­ge­schlos­sen und funk­tio­niert. Weitere Ein­stel­lun­gen sind selbst­ver­ständ­lich noch notwendig, aber den Lö­wen­an­teil der Ein­rich­tun­gen hat der Anbieter bereits selbst erledigt. Dies er­leich­tert auch den Umstieg von einem tra­di­tio­nel­len System auf die hy­per­kon­ver­gen­te Lösung.
  • Anpassung: Hy­per­kon­ver­gen­te Systeme lassen sich um einiges leichter anpassen als eine tra­di­tio­nel­le In­fra­struk­tur. Bei dieser ist es notwendig, die Größe von Systemen auf Verdacht zu skalieren. Das heißt, man schafft Kom­po­nen­ten mit der Absicht an, die Leis­tun­gen erst in der Zukunft voll aus­zu­nut­zen. Zum Zeitpunkt der An­schaf­fung selbst sind die Ge­ge­ben­hei­ten für eine effektive Aus­las­tung oft noch gar nicht vorhanden, sodass Res­sour­cen lange Zeit ungenutzt bleiben. Muss dann al­ler­dings doch wieder auf­ge­rüs­tet werden, ist dies ein sehr kost­spie­li­ger und auf­wen­di­ger Prozess. HCI hingegen kann man sehr viel einfacher nach­rüs­ten: Für das System lassen sich relativ simpel Er­wei­te­run­gen kaufen und ohne Ausfall der kom­plet­ten IT in­te­grie­ren. Dafür muss man nur einen weiteren Knoten in das System in­te­grie­ren. Das gelingt innerhalb weniger Stunden statt ansonsten mehrerer Wochen.
  • Kosten: Da sich das Ad­mi­nis­tra­ti­ons­per­so­nal ver­rin­gert, HCI schneller ein­ge­rich­tet und einfacher zu erweitern ist, sinken die Kosten im Vergleich zu einem tra­di­tio­nel­len System. Zudem ist die An­schaf­fung in den meisten Fällen sehr viel günstiger. Hinzu kommen geringere Be­triebs­kos­ten, da Energie ein­ge­spart wird. Die Preise der einzelnen Lösungen variieren jedoch: Die Hardware an sich genommen ist kein großer Kos­ten­punkt, doch die Anbieter lassen sich die Be­reit­stel­lung bezahlen. Auch die Software, die bei HCI aufgrund der Vir­tua­li­sie­rung enorm leis­tungs­fä­hig sein muss, hat ihren Preis. Auf längere Sicht dürfte sich dies aber rechnen.
  • Si­cher­heit: Es hat sich gezeigt, dass hy­per­kon­ver­gen­te Systeme sehr viel geringere Aus­fall­zei­ten haben als tra­di­tio­nel­le Systeme. Zudem sind in den Kom­plett­sys­te­men die be­nö­tig­ten Ge­ge­ben­hei­ten für Back-ups und Wie­der­her­stel­lun­gen bereits in­stal­liert und au­to­ma­ti­siert. Redundanz entsteht durch die Kopplung von zwei Knoten. Da innerhalb der In­fra­struk­tur alle Kom­po­nen­ten virtuell vertreten sind, kann man ganze Ap­pli­ances ohne Da­ten­ver­lust oder Sys­tem­aus­fäl­le aus­tau­schen.
  • Ge­schwin­dig­keit: Hy­per­kon­ver­gen­te In­fra­struk­tur bietet auch den Vorteil, die Ge­schwin­dig­keit in be­stimm­ten Bereichen zu erhöhen. Vor allem De­du­pli­ka­ti­ons­pro­zes­se können ef­fek­ti­ver gesteuert werden. Dadurch, dass alle vir­tu­el­len Maschinen den gleichen Code verwenden, sind doppelte Daten leichter zu eli­mi­nie­ren. Zudem wird das Problem des I/O-Blender-Effekts gemindert, weil die Systeme komplett auf­ein­an­der ab­ge­stimmt und auf Vir­tua­li­sie­rung ausgelegt sind.

Immer wieder berichten IT-Teams, die auf eine klas­si­sche In­fra­struk­tur setzen, dass bei Problemen die Anbieter sich ge­gen­sei­tig für den Fehler ver­ant­wort­lich machen, statt Lösungen zu liefern. Dem be­trof­fe­nen Un­ter­neh­men ist aber egal, wer schuld an den Kom­pli­ka­tio­nen ist, sie müssen nur so schnell wie möglich behoben werden. Diese Situation kann bei hy­per­kon­ver­gen­ten All-in-one-Lösungen nicht auftreten. Es ist nur ein Anbieter für die Funktion des Systems ver­ant­wort­lich. Auch wenn dieser Bauteile anderer Her­stel­ler verwendet, bleibt er dennoch der An­sprech­part­ner und ist damit allein zuständig für Lösungen.

Ebenfalls nicht ganz unwichtig, vor allem für kleinere Betriebe: Platz- und En­er­gie­be­darf mi­ni­mie­ren sich. Hy­per­kon­ver­gen­te Server sind sehr klein gebaut und haben nichts mehr mit den tra­di­tio­nel­len riesigen Spei­cher­schrän­ken zu tun. Auch der En­er­gie­ver­brauch ist geringer, weshalb diese Systeme sogar als um­welt­freund­li­cher gelten – Stichwort: Green IT.

Nachteile der Hy­per­kon­ver­genz

Wer sich für ein hy­per­kon­ver­gen­tes System ent­schei­det, setzt auf eine All-in-one-Lösung – alles von nur einem Anbieter. Das bedeutet al­ler­dings auch: Man macht sich von diesem abhängig (Vendor-Lock). Sollte sich der Her­stel­ler als un­zu­ver­läs­sig entpuppen oder sogar den Betrieb ein­stel­len, kann sich das ka­ta­stro­phal auf die Un­ter­neh­mens-IT auswirken. Auch für Er­wei­te­run­gen kann man nicht einfach zu einem neuen Her­stel­ler wechseln. Chaos im Ser­ver­raum wäre vor­pro­gram­miert.

Dies passiert auch, wenn Un­ter­neh­men versuchen sollten, ihre bereits be­stehen­de In­fra­struk­tur mit hy­per­kon­ver­gen­ten Systemen auf­zu­rüs­ten. So ist das System nicht gedacht: HCI soll die be­stehen­de Hardware ersetzen und nicht erweitern. Der Übergang von einer Lösung zur anderen ist zwar ver­gleichs­wei­se einfach zu meistern, bedeutet aber für Un­ter­neh­men, die bereits jahrelang mit ihrer tra­di­tio­nel­len In­fra­struk­tur arbeiten, eine klare Zäsur. Die zuvor mit viel Energie und Kosten zu­sam­men­ge­stell­te Hardware wird durch den Umstieg obsolet. Dessen muss man sich bei der Ent­schei­dung für HCI bewusst sein.

Negativ kann auch einer der ver­meint­li­chen Vorteile des Systems ausgelegt werden: die flexible Er­wei­ter­bar­keit. Um das Re­chen­zen­trum an ge­stie­ge­ne An­for­de­run­gen an­zu­pas­sen, wird eine komplette Appliance zur In­fra­struk­tur hin­zu­ge­fügt. Dieses Produkt umfasst aber das komplette Paket aus Compute, Storage und Network. Auch wenn man ei­gent­lich nur mehr Spei­cher­platz benötigt, muss man ein Ge­samt­pa­ket ordern – und kann dieses nicht in­di­vi­dua­li­sie­ren. Anbieter hy­per­kon­ver­gen­ter Systeme führen zwar Produkte in un­ter­schied­li­chen Grö­ßen­ord­nun­gen, aber gerade die pass­ge­nau­en Ein­stel­lun­gen sollen durch diese Art des Re­chen­zen­trums ja vermieden werden.

Hy­per­kon­ver­gen­te In­fra­struk­tur oder Cloud: Was ist der Un­ter­schied?

HCI und Cloud-Tech­no­lo­gie scheinen auf den ersten Blick sehr ähnlich zu sein, schließ­lich basieren sie auf dem gleichen Prinzip der Vir­tua­li­sie­rung: Res­sour­cen werden besser aus­ge­schöpft und die Arbeit für Nutzer er­leich­tert. Beide Tech­no­lo­gien funk­tio­nie­ren mit vir­tu­el­len Maschinen, die Dienste be­reit­stel­len. Der Un­ter­schied liegt aber vor allem im Standort und den damit gegebenen Vor- und Nach­tei­len der Produkte. Während der Cloud-Dienst mitunter weit weg vom Kunden an­ge­sie­delt ist (abhängig vom Anbieter sogar über Kon­ti­nen­te entfernt), befindet sich das hy­per­kon­ver­gen­te System in den eigenen Räum­lich­kei­ten und unter eigener Kontrolle.

HCI Cloud
Standort lokal global
Da­ten­si­cher­heit eigener Standard fremder Standard
Betrieb durch­ge­hend be­darfs­ge­recht buchbar
Zugang LAN/WAN Internet
IT-Team wird benötigt wird weniger benötigt
Kosten An­schaf­fung & Betrieb Abon­ne­ment

Die Frage, ob man sich als Un­ter­neh­men für ein eigenes Re­chen­zen­trum mit hy­per­kon­ver­gen­ter In­fra­struk­tur ent­schei­den sollte, ist also abhängig von den An­for­de­run­gen des je­wei­li­gen Un­ter­neh­mens. Gerade kleine Firmen, die nicht mit einer eigenen IT-Abteilung arbeiten, sind bei Cloud-Anbietern gut auf­ge­ho­ben. Für alle, die in größeren Di­men­sio­nen denken, was ihre IT angeht, und die unter keinen Umständen die Kontrolle über ihre Daten in fremde Hände legen möchten, bietet HCI die richtige Lösung.

HCI ist das richtige, wenn …

Der große Vorteil hy­per­kon­ver­gen­ter In­fra­struk­tur findet sich in der Ver­ein­fa­chung der IT: mehr Platz, weniger Her­stel­ler-Chaos, weniger Ver­wal­tungs­auf­wand. Die neuen Systeme, die auf gewohnter Technik basieren, folgen den Zielen der Converged In­fra­struc­tu­re und erweitern diese um die Vir­tua­li­sie­rung aller Kom­po­nen­ten. Das hat nicht mehr viel mit einem klas­si­schem Re­chen­zen­trum zu tun, eine Um­stel­lung kann daher mitunter die komplette System- und Per­so­nal­struk­tur umwerfen.

Die Vorteile der hy­per­kon­ver­gen­ten In­fra­struk­tur sind sehr ver­lo­ckend, für kleine wie große Un­ter­neh­men. Die gute Ska­lier­bar­keit gepaart mit ver­ein­fach­tem Mo­ni­to­ring und Ma­nage­ment machen sie für alle Anwender sinnvoll. Deshalb: Für Gründer und für jedes Un­ter­neh­men, das seine IT gerade erst aufbaut, dürfte HCI genau das Richtige sein. Anders sieht es aus, wenn bereits ein voll­aus­ge­stat­te­tes Re­chen­zen­trum mit gut aus­ge­bil­de­tem IT-Team vorhanden ist. Die Out-of-the-box-Systeme sind nicht für die Ein­glie­de­rung vor­ge­se­hen und bedürfen darüber hinaus andere Tech­no­lo­gie­kennt­nis­se. Wenn man die komplett vor­han­de­ne Storage-, Server- und Netzwerk-Hardware aus­tau­schen und gleich­zei­tig das Team um­struk­tu­rie­ren muss, ist die Um­stel­lung nicht mehr ganz so reizvoll.

Ent­wick­lun­gen auf dem IT-Markt sind schwer vor­her­zu­sa­gen, ansonsten hätte es in der Ver­gan­gen­heit nicht so häufig Fehl­ein­schät­zun­gen von Bedarf und Ent­wick­lungs­ge­schwin­dig­kei­ten gegeben. Es ist aber recht wahr­schein­lich, dass Vir­tua­li­sie­rungs­pro­zes­se auch in der Zukunft nicht an Bedeutung verlieren, weshalb HCI nicht als aktueller Hype abgetan werden sollte. Daher ist der Schritt in diese Richtung – der nicht zwangs­läu­fig Hy­per­kon­ver­genz heißen muss – für jedes Un­ter­neh­men auf lange Sicht un­ab­ding­bar. Den richtigen Zeitpunkt für eine solche Um­stel­lung sollten Un­ter­neh­mer und IT-Spe­zia­lis­ten aber mit reichlich Bedacht wählen.

Zum Hauptmenü