Fog Computing: Kampf dem Datenwust aus dem Internet der Dinge

Fog Computing gegen die IoT-Datenflut

Bahn frei für wichtige Daten – Fog Computing entlastet die Internetleitung in die Cloud

Keyfacts über Fog Computing

  • Fog Computing schont die Bandbreite
  • Fog Computing unterstützt den Cloud-Rechner
  • Fog Computing muss sicher sein
Zusammenfassung lesen

Von null auf zehn Terabyte in 30 Minuten. Länger dauert es nicht, bis eine moderne Flugzeugturbine eine solche Menge an Kontrolldaten erzeugt. Gesammelt in Echtzeit von etlichen Sensoren und zur Analyse an einen Hauptrechner weitergereicht. Das Internet of Things (IoT) fliegt quasi mit. Auch auf dem Boden laufen wegen der Digitalisierung in vielen Betrieben unzählige Bits und Bytes auf. Wohin damit? Immer öfter sind zentrale Server in der Cloud die Adresse – und immer öfter sind diese von den Datenmengen überfordert. Das Problem: Ihre Rechenleistung sowie die Bandbreite des Internets sind begrenzt. Die Lösung: Fog Computing.

Das Internet der Dinge – Fluch und Segen der Digitalisierung

Die Möglichkeiten des IoTs sind vielversprechend und noch längst nicht ausgereizt. Wann geht ein Bauteil wahrscheinlich kaputt? Woher weiß ein modernes Auto, ob es in eine Parklücke passt? Und wie ermittelt eine Smart Factory, welchen Weg das nächste Werkstück zu nehmen hat? Die Antworten gibt das IoT mit einem Heer an Überwachungskameras, Bewegungsmeldern, Assistenzsystemen, Fühlern oder Messstationen.

Die obigen Beispiele sind nur drei von vielen für den praktischen Nutzen der Digitalisierung. Doch bleibt er immer öfter auf der Strecke, weil das Internet zunehmend verstopft. Die Bandbreite ist der Bottleneck. Das liegt an der riesigen Informationsmenge, die das IoT produziert.

Dezentrale statt zentrale Lösungen

Hinter Fog Computing steht die Idee der dezentralen IT-Verarbeitung. Dabei läuft nicht mehr die komplette digitale Kommunikation über einen Hauptserver in der Cloud, sondern über kleinere Einheiten. Die können beispielsweise direkt in einer Smart Factory stehen, sich abseits vom Web über ein eigenes Netzwerk austauschen und untergeordnete Rechenaufgaben erledigen. Erst wenn sie damit fertig sind, leiten sie die Ergebnisse weiter – entweder in die Wolke oder an die nächste zuständige Instanz. Das nimmt Druck aus der Leitung und schont die Bandbreite. Noch ist Fog Computing (auch Edge Computing genannt) nicht überall im IT-Management angekommen, doch das dürfte sich ändern.

Denn das Internet of Things boomt. Experten erwarten, dass es bis zum Jahr 2020 schon 50 Milliarden vernetzte Geräte geben wird. Ob das wirklich so kommt, bleibt abzuwarten. Doch am Trend dorthin ist nicht zu rütteln. Künftig wird die Datenmenge wohl eher in Petabyte (eine Million Gigabyte) als in Terabyte (1.000 Gigabyte) erfasst.

Es kommt auf den Use Case an

Natürlich muss nicht jedes Unternehmen in diesen Dimensionen denken. Worauf es ankommt, ist immer der Anwendungsfall. Sieht der einen andauernden Nachschub an Daten in Echtzeit vor, ist eine stabile Internetverbindung wichtig. Das ist nicht ohne Risiko, denn technische Störungen und schlechte Verbindungen sind jederzeit möglich. Wer zum Beispiel seine Maschinen auf Baustellen permanent mit der Cloud koppeln will, der muss sich im Zweifel auf eine ungenügende Netzabdeckung einstellen. Auch von anderer Seite drohen böse Überraschungen. So hat China bereits wegen politischer Zensur Internetkanäle in seinem Staatsgebiet massiv gestört.

Eilige Daten von anderen trennen

Das trifft Unternehmen hart, die auf geringe Verzögerungen angewiesen sind. Deshalb sollen sie den Datenfluss möglichst gering halten. Genau das macht Fog Computing. Dabei dreht es sich um die Frage: Welche Daten müssen unbedingt in Echtzeit kommen? Sie haben Vorrang auf der digitalen Autobahn in Richtung Cloud Server. Alle anderen parken vorübergehend in kleinen Recheneinheiten am Rande der jeweiligen lokalen IT-Infrastruktur. Dort werden sie bearbeitet und ersten Analysen unterzogen. Das Ergebnis ist schlanker als die ursprünglichen Rohdaten und geht erst nach einer Zwischenspeicherung zum Data-Center. Fog Computing präpariert und kanalisiert sozusagen die Informationsflut für die Cloud.

10

Terabyte an Daten generiert ein Jettriebwerk in 30 Minuten.

Die Zeit dafür ist reif, wenn der Use Case unter der schwindenden Bandbreite leidet. Damit ist künftig häufiger zu rechnen, weil viele Unternehmen das Problem unvorbereitet trifft. Sie beginnen gerade erst, digitale Anwendungsfälle zu implementieren. An mögliche Engpässe im Datenfluss denken sie dabei noch gar nicht. Das sollten sie aber, denn sonst steht ihnen ein schmerzhafter Lernprozess bevor. Und ein teurer überdies. Um das zu vermeiden, müssen sie das Anforderungsprofil an ihre IT-Infrastruktur eindeutig und vorwärtsgewandt definieren. Nur so lassen sich genügend technische Reserven einplanen und vorhalten.

Auch Fog Computing muss sicher sein

Ebenso gründlich sollten Unternehmen hinsichtlich der IT-Sicherheit vorgehen. Das ist bei zentralen Lösungen, also auch dem Cloud Computing, vergleichsweise komfortabel. Aufgaben wie Überwachung, Standardisierung, Monitoring und Patching gelingen mit überschaubarem Aufwand. Bedrohungen wie der europaweite Ransomware-Angriff „WannaCry“ lassen sich damit gut in den Griff bekommen. Beim Fog Computing ist das zwar schwieriger, aber ebenso machbar. Schließlich geht es um dieselben Fragen: Wie sind Kommunikation und Daten abgesichert? Sind die beteiligten Komponenten, also Betriebssystem und Firmware, auf dem neuesten Stand? Die Antwort darauf ist eine passende IT-Architektur. Und sogar alte Betriebssysteme ohne aktuellen Hersteller-Support lassen sich wappnen, zum Beispiel mit Firewalls, die nur ganz bestimmte Datenströme durch- und zulassen. Ja, das bedeutet Aufwand. Aber er lohnt sich.

Ansonsten wird Lehrgeld fällig. Das erfahren Unternehmen, die ihre IT-Security nicht von Beginn an mitplanen. Ein schon fertiges System nachzubessern, macht viel Arbeit. Das gilt übrigens für Fog Computing und Cloud Computing gleichermaßen. In beiden Fällen spielen auch regulatorische Eingriffe eine Rolle. Spätestens die kommende Datenschutzgrundverordnung oder das Gesetz zur Erhöhung der Sicherheit informationstechnischer Systeme, auch bekannt als IT-Sicherheitsgesetz für kritische Infrastrukturen, fordern zum Handeln auf.

Fog Computing ist Chefsache

In der Pflicht steht hier zunehmend die Chefetage. Von der Vorstandsebene bis hin zum Aufsichtsrat müssen sich Führungskräfte dem Thema stellen. Und zwar desto intensiver, je stärker ihr Geschäftsmodell vom steten Fluss der Daten abhängt. Sie sollten auf die typischen Alarmzeichen achten: Die Performance nimmt ab und die Informationsdichte zu. Spätestens dann, wenn technische Grenzen erreicht sind oder sich abzeichnen, ist eine Reaktion notwendig.

Und das geht nicht nur die Hersteller von Jettriebwerken etwas an.

08. Juni 2017
Zusammengefasst

»Die Bandbreite ist der Bottleneck.«

Das Internet of Things steckt voller Möglichkeiten – und generiert massenhaft Daten. Die Informationsflut bringt manche Internetleitung in die Cloud an ihre Leistungsgrenze. Oder darüber hinaus. Leidet darunter der Use Case, muss eine Lösung her. Die heißt Fog Computing. Das Prinzip: Der zentrale Cloud-Server erhält nur die wichtigsten IoT-Daten. Den Rest präparieren kleinere Netzwerkkomponenten und senden ihn dann häppchenweise ans Data-Center. Das spart Rechenkraft und schont die Bandbreite.

Marko Vogel Director, Security Consulting
Ganzen Artikel lesen

Kommentare

Von zentraler hin zu dezentraler IT-Infrastruktur: Ist Fog Computing Rettung oder Rückschritt?

*Ihre E-Mail-Adresse wird nicht veröffentlicht

Das könnte Sie auch interessieren

KPMG verwendet Cookies, die für die Funktionalität und das Nutzerverhalten auf der Website notwendig sind. Durch die Nutzung der Website stimmen Sie dem Einsatz von Cookies zu, wie sie in der Datenschutzerklärung von KPMG im Detail ausgeführt ist. Schließen