Für Cloud Server und Dedicated Server, die im Cloud Panel verwaltet werden

Mit einem Load Balancer können Sie den Datendurchsatz maximieren und gleichzeitig die Server-Last minimieren. Load Balancer können sowohl die Auslastung als auch die Antwortzeiten von einzelnen Servern beurteilen und den Traffic mit Hilfe von Regeln auf mehrere Server verteilen.

Der Einsatz von Load Balancern ist sinnvoll, wenn Ihre Web-Anwendungen von mehreren Servern bereitgestellt werden müssen und eine hohe Verfügbarkeit gewährleistet werden muss. Dies trifft z. B. auf Websites zu, die hohe Besucherzahlen aufweisen.

Die Frage, ob ein Load Balancer benötigt wird, können Sie mit Hilfe der folgenden Fragen klären:

  • Benötigen Sie für die Bereitstellung Ihrer Web-Anwendungen mehrere Server?

  • Muss eine hohe Verfügbarkeit der Web-Anwendungen gewährleistet werden?

  • Gibt es ein hohes Traffic-Aufkommen?

Anmerkung

Sie können auch mehrere Load Balancer verwenden, um eine optimale Verteilung des Traffics zu gewährleisten.

Bevor Sie einen Load Balancer einsetzen können, müssen Sie diesen konfigurieren. Hierzu ist die Erstellung von sogenannten Listenern erforderlich. Ein Listener prüft die Verbindungsanfragen von Clients. Für die Konfiguration des Load Balancers werden das jeweilige Protokoll, der Port auf dem Load Balancer (Client-Verbindung zum Load Balancer) und der Port auf den Servern (Verbindung des Load Balancers zu den zugewiesenen Servern) benötigt. Der Listener leitet die Anfragen anschließend mit dem Protokoll und der Portnummer, die Sie konfiguriert haben, an einen oder mehrere Server weiter.

Anmerkung

Load Balancer können auch auf Ports zugreifen, die in der Firewall-Richtlinie eines zu überwachenden Servers blockiert sind. Wenn Sie z. B. in den Feldern Port auf dem Balancer und Port auf den Servern jeweils die Zahl 0 eingeben, greift der Load Balancer auf alle Ports zu, die in der Firewall blockiert sind.

TCP-Protokoll

Wenn Sie in der Konfiguration des Load Balancers das TCP-Protokoll verwenden, leitet der Load Balancer die Requests der Clients an die Server weiter, ohne den Header zu ändern. Wenn ein Load Balancer die Requests empfängt, versucht er über den konfigurierten Port eine TCP-Verbindung zum Server herzustellen. Da Load-Balancer den Datenverkehr zwischen den Clients und Ihren Servern abfangen und verteilen, enthalten die Zugriffsprotokolle für Ihre Server die IP-Adresse des Load Balancers anstatt der IP-Adresse des ursprünglichen Clients. 

HTTP-Protokoll

Wenn Sie das HTTP-Protokoll für Ihre Client-Verbindungen zum Load Balancer und für Ihre Verbindungen vom Load Balancer zu den zugewiesenen Servern verwenden, parst der Load Balancer die Header dieser HTTP-Requests. HTTP-Requests und HTTP-Responses enthalten oft Header-Felder, die kontextuelle Informationen liefern, wie z. B. den X-Forward-For-Header. Der X-Forward-For-Header dient dazu, die IP-Adresse des Benutzers zu übermitteln, wenn dieser durch einen Proxy-Server oder Load Balancer auf einen Webserver zugreift. Zu diesem Zweck muss die Konfiguration der jeweiligen Anwendung (z. B. Apache) angepasst werden. 

Anmerkung

Aus technischen Gründen funktioniert die Übertragung der IP durch den Load Balancer - und somit die hier beschriebene Lösung - nur bei unverschlüsselten Zugriffen. Erfolgt der Aufruf über HTTPS, kann kein Headereintrag erfolgen, da die Kommunikation zwischen Client und Webserver vollständig verschlüsselt ist. Da kein Zertifikat auf dem Load Balancer installiert werden kann, ist es nicht möglich, die Kommunikation zwischen Client und Webserver zu entschlüsseln.

Eine Übersicht über die für Sie konfigurierten Load Balancer finden Sie im Bereich Netzwerk > Load Balancer. In diesem Bereich finden Sie auch die wichtigsten Informationen zu den einzelnen Load Balancern. Weitere Informationen zu diesem Bereich finden Sie hier.