Der Marketing-Begriff „Fog-Computing“ geht auf den US-amerikanischen Technologiekonzern Cisco zurück – einem der führenden Hersteller für Netzwerk-Lösungen. Der Begriff ist eine gelungene Metapher: Denn, ob wir bei einer Ansammlung feiner Wassertröpfchen von Nebel (engl. Fog) oder Wolken (engl. Clouds) sprechen, entscheidet schließlich allein die Höhe, in der das Phänomen auftritt. Bezogen auf IT-Architekturen bringt Fog-Computing Datenverarbeitungsprozesse zurück auf Bodennähe. Umgesetzt wird dies mit sogenannten Fog-Nodes, Rechenknoten, die als vermittelnde Instanz zwischen der Cloud und zahlreichen IoT-Endgeräten fungieren.
Ziel des sogenannten „Foggings“ ist es, Kommunikationswege zu verkürzenund den Datendurchsatz über Fremdnetze zu reduzieren. Fog-Nodes bilden dabei eine Zwischenschicht im Netzwerk, auf der entschieden wird, welche Daten lokal verarbeitet und welche zur weiteren Analyse oder Verarbeitung in die Cloud oder ein zentrales Rechenzentrum weitergeleitet werden.
Folgende Grafik zeigt eine schematische Darstellung der drei Schichten (Layer) einer Fog-Computing-Architektur:
- Edge-Layer: Der Edge-Layer umfasst alle „intelligenten“ Geräte (Edge-Devices) einer IoT-Architektur. Auf dem Edge-Layer generierte Daten werden entweder direkt am Gerät verarbeitet oder an einen Server (Fog-Node) auf dem Fog-Layer übermittelt.
- Fog-Layer: Der Fog-Layer umfasst eine Reihe leistungsstarker Server, die Daten vom Edge-Layer entgegennehmen, vorverarbeiten und bei Bedarf in die Cloud hochladen.
- Cloud-Layer: Der Cloud-Layer ist der zentrale Daten-Endpunkt einerFog-Computing-Architektur.