Hyperscale-Computing

Big Data und Cloud Computing sind in aller Munde. Aktuelle Stichworte lauten u. a. Industrie 4.0, Internet of Things oder autonomes Fahren. Diese Technologien erfordern die Vernetzung einer sehr großen Anzahl von Sensoren, Geräten und Maschinen. Dabei fallen riesige Datenmengen an, die in Echtzeit verarbeitet und vor Ort augenblicklich in Aktionen umgesetzt werden müssen. Diese Datenmengen – egal, ob industriell oder privat, in Wissenschaft und Forschung – wachsen mit exponentieller Geschwindigkeit an. Gegenwärtig produzieren wir pro Minute ca. 220.000 Instagram-Post und 280.000 Tweets sowie 205 Millionen E-Mails.

Dabei ist es nicht immer abzuschätzen, wann welche Kapazitäten auf Servern benötigt werden. Um auf solche schnell wechselnden Anforderungen reagieren zu können, sollten Serverkapazitäten skalierbar sein. Welche physischen Strukturen dafür nötig sind und wie sie am besten miteinander verbunden sind, erfahren Sie in unserem Ratgeber über Hyperscale-Computing. Mit diesem Wissen können Sie sich für bestimmte Server-Lösungen entscheiden, die Ihren Anforderungen am besten gerecht werden.

Was ist Hyperscale?

Der Begriff „Hyperscale“ kann ins Deutsche übersetzt werden mit „übermäßig große Skalierbarkeit“. Der Terminus wird in der Computerwelt für eine bestimmte Organisationsform von Servern benutzt.

Definition: Hyperscale

Der Begriff Hyperscale eschreibt skalierbare Cloud-Computing-Systeme, in denen eine sehr große Zahl von Servern in einem Netzwerk verbunden ist. Die Zahl der genutzten Server kann je nach Bedarf vergrößert oder verkleinert werden. Ein solches Netzwerk kann sehr viele Zugriffe verarbeiten, bei geringer Auslastung aber auch geringere Kapazitäten bereitstellen.

Die Skalierbarkeit ist der eigentliche Ausdruck dafür, dass sich das Netzwerk auf wechselnde Leistungsanforderungen anpasst. Hyperscale-Server sind kleine einfache Systeme, die exakt auf einen festgelegten Zweck abgestimmt sind. Um die Skalierbarkeit zu erreichen, werden sie horizontal miteinander vernetzt. Horizontal beschreibt den Umstand, dass zur Steigerung der Leistung eines IT-Systems weitere Serverkapazitäten hinzugefügt werden. Im internationalen Sprachgebrauch wird auch der Begriff Scale-out dafür verwendet.

Das dem gegenüberstehende Verfahren der vertikalen Skalierbarkeit (Scale-up) beschreibt den Ausbau eines bestehenden lokalen Systems. Dazu wird ein bestehendes Rechnersystem mit besserer Hardware, also größerem Hauptspeicher, schnellerer CPU, leistungsfähigeren Festplatten oder schnelleren Grafikkarten aufgerüstet. In der Praxis wird oft vor der horizontalen Skalierung zuerst die Technik vor Ort aufgerüstet – bis an die Grenzen des technisch Machbaren oder die Grenzen der akzeptablen Hardware-Kosten. Dann ist der Schritt zum Hyerscaler meist unumgänglich.

Wie funktioniert Hyperscale?

Beim Hyperscale-Computing werden einfach gestaltete Server horizontal vernetzt. Das Wort „einfach“ meint hierbei nicht „primitiv“, sondern „gut zusammenfügbar“. Es bestehen also wenige und grundlegende Konventionen – z. B. Netzwerkprotokolle. Damit ist die Kommunikation der Server untereinander einfach zu verwalten.

Die „Ansprache“ der momentan benötigten Server erfolgt mit einem Rechner, der die eintreffenden Anfragen verwaltet und an die freien Kapazitäten verteilt, dem sogenannten Load Balancer. Dabei wird beständig kontrolliert, inwieweit die genutzten Server mit den zu verarbeitenden Datenvolumina ausgelastet sind, und bei Bedarf werden weitere Server dazugeschaltet oder bei abnehmendem Request auch wieder abgeschaltet.

Verschiedene Analysen haben ergeben, dass inUnternehmen lediglich 25 bis 30 Prozent der vorliegenden Daten aktivgenutzt werden. Zu den ungenutzten Datenbeständen gehören z. B. Sicherheitskopien, Kundendaten, Wiederherstellungsdaten. Ohne ein straffes Ordnungssystem sind diese Daten bei Bedarf schwer aufzufinden, Backups können unter Umständen Tage in Anspruch nehmen. Das alles wird mit Hyperscale-Computing vereinfacht. Die komplette Hardware für Computing, für Speicher und Netzwerke hat dann nur noch einen Kontaktpunkt zu Datensicherungen, Betriebssystemen und anderer benötigter Software. Die Kombination von Hardware und unterstützenden Einrichtungen erlaubt es, die aktuell benötigte Computing-Umgebung auf mehrere Tausend Server auszubauen.

Das begrenzt übermäßiges Kopieren von Daten und vereinfacht die Anwendung von Richtlinien und Sicherheitskontrollen in Unternehmen, sodass letztlich auch Personal- und Verwaltungskosten sinken.

Vorteile und Nachteile von Hyperscale-Computing

Die beschriebene Möglichkeit, Serverkapazitäten einfach zu erweitern oder wieder zu verringern, hat Licht- und Schattenseiten.

Die Vorteile

  • Der Skalierung sind keine Grenzen gesetzt, Unternehmen bleiben flexibel für zukünftige Datenmengen gerüstet. Das erlaubt eine schnelle und kostengünstige Marktanpassung.
  • Unternehmen müssen langfristige Strategien für die Entwicklung der eigenen IT besitzen.
  • Die Anbieter des Hyperscale-Computing garantieren eine hohe Ausfallsicherheit durch redundante Lösungen.
  • Vermeidung von Abhängigkeiten durch die zeitgleiche Nutzung mehrerer Anbieter.
  • Klar kalkulierbare Kosten und große Kosteneffizienz unterstützen optimal bei der Realisierung von Unternehmenszielen.

Die Nachteile

  • Es werden Daten aus der Hand gegeben.
  • Neu hinzugefügte Speicher-/Server-Kapazitäten können auch neue Fehlerquellen sein.
  • Es entstehen größere Anforderungen an das innerbetriebliche Management und die Verantwortung der Mitarbeiter – langfristig gesehen allerdings ein Vorteil.
  • Die Nutzer begeben sich in die Abhängigkeit vom Preismodell des Hyperscale-Anbieters.
  • Jeder Anbieter hat seine eigene Bedienoberfläche.

Um Vor- und Nachteile gut gegeneinander abwägen zu können, können Unternehmen einen hybridenWeg wählen und große Backups oder selten benötigte Daten in einer Cloud ablegen. Diese Daten nehmen damit nicht die Speicherkapazitäten eines innerbetrieblichen Rechenzentrums in Anspruch. Beispiele sind persönliche Daten von Nutzern eines Onlineshops, die auf Verlangen der Nutzer herausgegeben bzw. gelöscht werden müssen, oder aufbewahrungspflichtige Unternehmensdaten.

Was ist ein Hyperscaler?

Unter einem Hyperscaler versteht man den Betreiber eines Rechenzentrums, das skalierbare Cloud-Computing-Dienste anbietet. Als erstes Unternehmen hat Amazon diesen Markt im Jahre 2006 mit den Amazon Web Services (AWS) betreten. Dabei handelt es sich um ein Tochterunternehmen, mit dessen Hilfe die eigenen Amazon-Rechenzentren weltweit besser ausgelastet werden sollen. Inzwischen bietet AWS sehr viele spezifische Dienste an. Der Marktanteil beträgt zirka 40 Prozent. Die beiden anderen Big Player auf diesem Markt sind Microsoft mit dem Dienst Azure (2010) und die Google Cloud Platform (2010). Auch das Unternehmen IBM gilt als größerer Anbieter von Hyperscale-Computing. Diese technischen Möglichkeiten werden über autorisierte Partner auch mittels Rechenzentren am Standort Deutschland angeboten – für viele Unternehmen ein wichtiger Gesichtspunkt, besonders seit Inkraftsetzung der neuen Datenschutzgrundverordnung.

Hinweis

Mit IONOS Cloud präsentiert IONOS eine Alternative zu den großen US-Hyperscalern. Der Fokus liegt hier auf Infrastructure as a Service (IaaS), mit Angebote wie Compute Engine, Managed Kubernetes, S3 Object Storage oder eine Private Cloud.


Bringen Sie Ihr Weihnachtsgeschäft
auf Erfolgskurs
Stark reduziert: Drei Business-Lösungen für Ihre vorweihnachtliche
Verkaufsoffensive. Angebote gültig bis zum 30.11.2020.