Cloud Applications

Nach der Cloud kommt jetzt das Fog Computing

Explodierende Datenmengen im Cloud Computing kosten viel Geld. Die Lösung soll ein neuer Ansatz bringen: Fog Computing.

27.01.2016
19_FogComputing_iStock_000076994555_Large Kopie

Das Internet der Dinge steht gerade erst am Anfang, da zeigen sich schon die ersten Herausforderungen: Die Datenmengen, die vernetzte Geräte weltweit produzieren, verstopfen buchstäblich die Leitungen in die Cloud. Denn nahezu sämtliche Informationen, die aus Sensoren, Chips und Lesegeräten ausgelesen werden, wandern in der Regel direkt in entfernte Datenspeicher, wo sie verarbeitet oder aufbewahrt werden. Ein Ende ist dabei nicht in Sicht. Bis 2020 sollen weltweit bis zu 50 Milliarden Geräte im Internet der Dinge vernetzt sein.

Dabei fallen geradezu grotesk große Datenberge an. Allein die Sensoren in der Turbine eines Düsenflugzeugs generieren innerhalb von 30 Minuten Daten über Leistung und Zustand in der Größenordnung von 10 Terabyte, rechnet der Netzwerkhersteller Cisco vor .

Leitungskapazität kostet Geld
Schon jetzt lassen sich die Telekomanbieter den Upload der Daten teuer bezahlen. Dazu kommt, dass die neue EU-Regelung zur Netzneutralität gewisse Schwachstellen aufweist. Kritiker warnen , die Netzneutralität werde mit dem Gesetz verwässert, weil vage Formulierungen Schlupflöcher böten. Es drohe ein "Zwei-Klassen-Internet". Und das heißt im Klartext: Wer Daten schnell in die Cloud schaufeln will, muss zahlen.

Diesem Umstand wollen verschiedene Anbieter, allen voran Cisco, mit einer Zwischenebene der Datenverarbeitung entgegen wirken – dem so genannten Fog Computing. Dabei werden die Informationen nicht wie bislang unbearbeitet komplett in die Cloud bzw. ein entferntes Data Center geladen, sondern bereits in Server-Systemen, Storage- und Netzwerkkomponenten am Rand einer IT-Infrastruktur verarbeitet.

Die Spreu vom Weizen trennen
Diese so genannten Edge Devices übernehmen also Dienste und Aufgaben, die bislang aus der Cloud kamen und reduzieren so die zu übertragende Datenmenge. Statt sozusagen das Korn vom Feld mitsamt dem Stroh zur Mühle zu fahren, trennen die "Mähdrescher" bereits die Spreu vom Weizen.

Möglich ist das unter anderem dadurch, dass ungenutzte Rechenkapazitäten von Servern in unmittelbarer Umgebung zur Verfügung gestellt werden. Ganz ähnlich funktioniert das bereits im Energiesektor: Überschüssiger Strom aus Solarzellen oder Kraftwerken fließt ins Gemeinschaftsnetz. So lassen sich Verteilung und Gewinnung optimieren und am Ende sinkt der Preis. Es gibt also künftig weniger zentrale Data Center und mehr verteilte, lokale Einheiten, die schneller auf die individuellen Anforderungen der Nutzer reagieren können. Dadurch lassen sich auch bekannte Schwierigkeiten von Datenzentren vermeiden: hoher Energieverbrauch, Lastspitzen und starke Bandbreitennutzung.

Grüne Welle für Einsatzkräfte
"Fog Computing bringt Analyse-, Verarbeitungs- und Speicherfunktionen an den Rand des Netzwerks", erklärt Kay Wintrich , Technical Director von Cisco Deutschland. "Im Internet of Everything, in einer komplett vernetzten Welt, ist das die einzige Möglichkeit, mit der großen Menge an anfallenden Daten umgehen zu können", verdeutlicht Wintrich.

Als mögliche Einsatzszenarien nennt Cisco beispielsweise die intelligente Verkehrssteuerung mithilfe von Videokameras. Diese können etwa Einsatzfahrzeuge am Blaulicht erkennen und eine grüne Welle schalten. Analyse und Reaktion geschehen vor Ort, die vorherige Datenübermittlung an ein Rechenzentrum wird unnötig. Um die Rechenleistung vor Ort bereit zu stellen, stattet Cisco die Switches und Router mit einem zweiten Betriebssystem auf Linux-Basis aus.

Spezielle Hardware erforderlich
Während also die Cloud ein eher nebulöser, weit entfernter Ort ist, befindet sich der "Fog" geradezu in Bodennähe. Dort, wo die Arbeit erledigt wird. Der "Nebel" besteht dabei nicht aus leistungsfähigen Servern, sondern aus schwächeren und verteilten Computern, die es bis in die Geräte, Fabriken, Autos, Straßenlampen und alle anderen Produkte unserer materiellen Kultur schaffen. Das Startup "Nebbiolo Technologies" nutzt hingegen eigene Hardware speziell für Fog Computing in der Industrie.

"Unsere kleinen zentralen Rechner sind das Herz der Industrie 4.0", sagt Flavio Bonomi , CEO und Gründer von Nebbiolo Technologies. "Sie bieten lokalen Speicherplatz, führen Analysen in Echtzeit durch, bringen Prozesse zusammen und dienen gleichzeitig als Firewall gegen Angriffe von außen."

Allerdings bringt Fog Computing auch einige Schwachstellen und Risiken mit sich, die es zu kontrollieren und zu beseitigen gilt. Etwa die Verfügbarkeit der Recheneinheiten. Nur wenn sichergestellt ist, dass die Daten auch verarbeitet werden, erweist sich Fog Computing als vorteilhaft – wenn die Rechner aber im Endgerät stecken, also etwa einem Smart Meter, ist dieser weder vor Ausfall noch vor Missbrauch besonders gut geschützt, von ausreichender Kontrolle ganz zu schweigen, warnt Rick Stevenson , CEO von Opengear, einem Lösungsanbieter für IT-Verwaltung.

Ob Fog Computing also mehr als nur eine Nebelkerze ist, wird sich zeigen. Aber auch Cloud Computing war anfangs nicht mehr als ein vermeintliches Trendthema, dem wenig Zukunftschancen vorhergesagt wurden.

Wie stark sich das geändert hat, erleben Sie auf der CeBIT. Die Hallen 2, 4 und 5 konzentrieren sich voll auf die Themen Big Data & Cloud Computing, stellen Anwendungsszenarien und Zukunftsvisionen vor. Das Rechenzentrum von morgen bekommt zudem eine eigene Heimat auf der CeBIT 2016 – in der Halle 12 bei DatacenterDynamic@CeBIT und der dazu gehörenden Konferenz: DatacenterDynamics Converged.

Cloud Applications RSS Feed abonnieren