Edge Computing: Ein Expertengespräch…

Schneller, zuverlässiger, flexibler mit der Edge. Edge Computing wird auch in Zukunft rasant wachsen. Da sind sich die Teilnehmer des TQ-Expertengesprächs einig. Allerdings sind noch einige Herausforderungen zu meistern – zum Beispiel in puncto Standardisierung oder beim Energieverbrauch der Edge Prozessoren.

Es gibt viele Definitionen und Betrachtungsweisen, was unter Edge Computing fällt. „Je nachdem, mit wem man spricht, wird Edge anders definiert“, so Dr. Felix Winterstein, Mitgründer und CEO von Xelera. Thorsten Milsmann, Director Digital & IoT bei Hewlett Packard Enterprise (HPE), findet aber eine Definition, der alle am Tisch zustimmen können: „Alles, was außerhalb des Rechenzentrums ist, ist die Edge.“ Damit sind die Expertengesprächs-Teilnehmer recht schnell bei der Begriffsbestimmung: „Die längste Experten-Diskussion an der ich teilnehmen durfte, was Edge Computing tatsächlich ist, ging zweieinhalb Stunden lang. Am zielführendsten ist es vermutlich, den Definitionen des „Linux Foundation‘s Open Glossary of Edge Computing“-Projektes zu folgen“, erklärt Dr. Alexander Willner, Leiter des IIoT Centers des Fraunhofer Instituts für offene Kommunikationssysteme.

Mehr Sensorik, mehr Daten

Dabei ist Edge Computing eigentlich gar nicht so etwas Neues, wie Dr. Johannes Kreuzer, CEO von Cosinuss, betont. Sein Unternehmen entwickelt Sensorik, die im Ohr des Patienten Vitalparameter misst. „Schon in meiner Doktorarbeit habe ich darüber geschrieben, warum Datenanalysen direkt am Patienten erfolgen müssen. Damals einfach, weil wir die Daten nicht sinnvoll übertragen konnten. Es hieß da nur noch nicht Edge Computing.“ Die Gründe, Daten vor Ort zu analysieren, waren schon die gleichen wie heute. Ein kontinuierliches Übertragen der Daten würde zu viel Energie verbrauchen, zumal das Volumen der Daten dafür viel zu groß wäre.

 

„Die Datenmenge wächst primär auf der Applikationsseite. Wir werden daher in den nächsten Jahren ein gewaltiges Wachstum des Upstream-Volumens sehen.“

Dr. Felix Winterstein, CEO von Xelera Technologies

„Es wird immer mehr Sensorik verbaut, um Systeme zu überwachen und genauer zu steuern“, so Ulrich Schmidt, Manager des High-End Processing Segments bei EBV. „Damit nimmt das Datenvolumen massiv zu, was wiederum eine Vorverarbeitung von Daten bedingt, bevor sie dann an die Cloud geschickt werden.“ Durch die Verarbeitung von Daten auf dem Edge Gerät gewinnt man zudem eine gewisse Unabhängigkeit von der Internet- bzw. Datenverbindung in die Cloud – ein wichtiges Argument zum Beispiel in der Medizintechnik, wie Johannes -Kreuzer berichtet: „Hier müssen die Systeme einfach zuverlässig funktionieren, von daher ist es am sichersten, wenn die Datenverarbeitung und Steuerung direkt am Patienten, der das Edge Gerät trägt, abläuft.“

Echtzeitanwendungen nehmen zu

„Hinzu kommt, dass der Anteil an Daten, die in Echtzeit verarbeitet werden müssen, parallel mit dem Volumen steigt“, ergänzt Dr. Felix Winterstein. Aurel Buda, Leiter des Produktmanagements Fabrikautomation Systeme bei Turck, bestätigt das aus Sicht der Anwender: „In der Industrie soll immer schneller, immer zuverlässiger und immer flexibler produziert werden. Mit den klassischen Steuerungsprozessen ist das nicht mehr zu realisieren.“ Als Beispiel nennt er die Automobilproduktion, wo schnell mehrere tausend Roboterzellen arbeiten, jede mit mehreren hundert Sensoren ausgestattet, die Daten im Takt von zehn Millisekunden generieren. Bei einer Verarbeitung dieser Daten in der Cloud, mit einer Latenz von einigen Sekunden, würde das System nicht funktionieren. „Derartige Prozesse müssen mit Entscheidungen innerhalb von 100 Millisekunden gesteuert werden“, so Buda. Andere Anwendungen stellen noch extremere Anforderungen. Dr. Winterstein gibt ein Beispiel: „Bei Augmented Reality Anwendungen mit entsprechenden Brillen müssen die Daten innerhalb von 20 oder 30 Millisekunden verarbeitet werden, weil es dem Nutzer sonst schlecht wird – Motion Sickness nennt man das Phänomen.“ Die Rechenleistung, um die Daten in dem Umfang und mit der Geschwindigkeit in Edge Geräten zu berechnen, reicht bereits heute aus. „Auch wenn man niemals sagen kann, wir haben genug Compute Power“, wie Dr. Felix Winterstein meint. „Aber es gibt heute eine Vielzahl leistungsfähiger Chips, auch um speziell KI-Anwendungen in der Edge zu realisieren.“

 

„Auch Edge Devices müssen immer auf dem aktuellen Stand gehalten werden. Dabei können Admintools helfen, ähnlich denen, die im Rechenzentrum eingesetzt werden.

Thorsten Milsmann, Director Digital and IoT bei Hewlett Packard Enterprise

KI wird oftmals im Zusammenhang mit Edge Computing genannt – doch das eine bedingt das andere nicht, wie Johannes Kreuzer betont: „Es gibt zwar viele Überschneidungen. Aber oftmals werden die Daten in Edge Anwendungen einfach nur über einen relativ einfachen Algorithmus analysiert – das hat dann nichts mit KI zu tun.“ Die Expertengesprächs–Teilnehmer sind sich einig, dass ein gut gewählter Schwellenwert oftmals mehr Nutzen bringt als ein neuronales Netz, das erst noch trainiert werden muss – auch wenn die Möglichkeiten der KI hochspannend sind und man erst am Anfang der Entwicklung steht. Dennoch, „mit der heute zur Verfügung stehenden -Rechenleistung lassen sich Rechen-modelle vor Ort ausführen, die früher gar nicht denkbar waren – und das sogar teils in Echtzeit“, so Thorsten Milsmann. Wobei die Lernphase aktuell noch immer Sache des Rechenzentrums ist, wie Ulrich Schmidt betont: -„Die Inferenz, also das Anwenden der gelernten Modelle, dagegen wird zunehmend auf den Edge Devices ausgeführt.“

Energieeffiziente Controller gesucht

Eine andere Herausforderung benennt Johannes Kreuzer: „Unsere Controller sind gerade mal zwei mal zwei Millimeter groß, verfügen über Bluetooth und eine Floating Point Unit. Die Leistung hierfür ist kein Problem. Womit wir kämpfen, ist der Stromverbrauch. Weil es bei mobilen Anwendungen einfach relevant ist, ob ein Gerät acht oder 24 Stunden läuft, bis es wieder geladen werden muss.“ Dabei ist es wichtig, dass trotz immer höherer Rechenleistung mit einem normalen Kühlkörper gearbeitet werden kann – ein Lüfter würde den Energieverbrauch in die Höhe schnellen lassen und eine zu wartende Komponente in das System bringen, wie Ulrich Schmidt erklärt: „Eine Lösung sind dedizierte Hardware-Blöcke, die jeweils für ganz spezielle Anwendungen konzipiert sind. Dadurch, dass man den generalistischen Ansatz verlässt, kann die Verlustleistung reduziert werden.“

 

Es gibt immer mehr Geräte, die zudem mehr Daten generieren – nur mit Edge Computing lässt sich das exorbitant steigende Datenvolumen verarbeiten.“

Dr.-Ing. Johannes Kreuzer, Co-Gründer & CEO von Cosinuss

Cybersecurity und die Edge

Doch nicht nur Latenzanforderungen und explodierendes Datenvolumen sind Treiber des Edge Computing, wie Dr. Alexander Willner erklärt: „Gerade in Europa – und besonders in Deutschland – möchte man oftmals auch nicht, dass die Daten in der Cloud verteilt werden – Stichwort Datenschutzgrundverordnung.“ Wobei vieles mehr zum Thema Datensicherheit gehöre, „als nur die Festplatte im eigenen Schrank zu haben“, wie es Thorsten Milsmann ausdrückt. „Sobald eine WLAN-Verbindung besteht oder ein Gerät über IP angebunden wird, ist ein umfassendes Sicherheitskonzept nötig.“ Für Aurel Buda ist die Sicherheit bei der Datenverbindung schon heute ausreichend realisierbar: „Was die Kommunikation angeht, da haben wir die Verschlüsselung. Vielleicht ist die Usability hier mit dem Zertifikatsmanagement noch zu verbessern, aber per se haben wir damit erstmal eine sichere Kommunikation.“ Probleme sieht er vielmehr dann, wenn vorhandene Anlagen mit Intelligenz ausgestattet und an das IoT angeschlossen werden – zum Beispiel bestehende Industrieanlagen modernisiert werden, um Condition Monitoring oder digitale Instandhaltung zu realisieren. „In den industriellen Automatisierungsnetzen gibt es sehr wenige Technologien, die ernsthaft sicher sind.“ Denn früher waren sie nicht vernetzt, nicht an das Internet angeschlossen und boten so eine intrinsische Sicherheit. Hier aber bei jedem angeschlossenen Sensor eine sichere Kommunikation mit Verschlüsselung zu realisieren, das hält Buda für nicht bezahlbar – und vielleicht auch gar nicht nötig: „Wen interessiert schon ein Sensorwert, der alle einhundert Millisekunden nahezu unverändert übermittelt wird? Wichtig ist vielmehr sicherzustellen, dass das tatsächlich der richtige Wert des Sensors ist, er also nicht korrumpiert wurde.“

 

„Wir stellen uns der Herausforderung, Daten mit geringem Aufwand aus der Feldebene bis in die Cloud zu bringen.

Aurel Buda, Leiter Produktmanagement Fabrikautomationssysteme bei Turck

Dazu bietet die Halbleiterindustrie bereits passende Lösungen an, wie Ulrich Schmidt erläutert: „Dabei werden von Anfang an Secure-Elemente in die Lösungen eingebunden, über die eine gesicherte Datenverbindung aufgebaut und sichergestellt werden kann, dass nur authentifizierte Geräte miteinander kommunizieren.“ Damit sei es dann auch möglich, Edge Geräte „over-the-air“ mit Updates zu versehen und sie auf den jeweils neuesten Firmware-Stand zu bringen. Zusammen mit Systemen zur Intrusion Detection und zur verhaltensorientierten Sicherheit könnte so auch bei Edge Anwendungen im industriellen Umfeld für Sicherheit gesorgt werden. „Allerdings müssen wir den Systemen erstmal beibringen, was ungewöhnliches Verhalten und was falsch und richtig ist“, betont Thorsten Milsmann. „Denn die in der Automatisierung eingesetzten Feldgeräte sind mit ihren Protokollen in der IT-Welt bisher oft nicht bekannt.“

 

„Dedizierte Hardwareblöcke, die maßgeschneidert sind auf spezielle Anwendungen, reduzieren die benötigte Prozessorleistung und damit den Energieverbrauch.

Ulrich Schmidt, Segment Manager High-End Processing bei EBV Elektronik

Daten von der Feldebene in die Cloud

Genau dieses Zusammentreffen von Produktions- und IT-Welt ist auch die entscheidende Herausforderung, will man die in den Sensoren oder anderen Feldgeräten gesammelten Daten über die verschiedenen Ebenen des Edge Computing bis in die Cloud bringen: „Die Daten liegen in anderen Formaten und völlig unstrukturiert vor – die standardisierte Integration dieser Sensor Daten in die höher liegenden Systeme ist aber bereits aktuell Bestandteil entsprechender Standardisierungsarbeiten“, so Aurel Buda. Er ist zum Beispiel im entsprechenden Gremium aktiv, dass bereits das Mapping von IO-Link, einer weltweit standardisierten Anschlusstechnik für Sensoren und Aktoren, auf OPC/UA standardisiert hat. Das ist ein offener Schnittstellenstandard zum herstellerunabhängigen Austausch von Daten in der Produktion. Der nächste Schritt wird ein Mapping auf MQTT sein, dem Standardprotokoll für die IoT- bzw. M2M-Kommunikation von Geräten und Applikationen, oder auf JSON, einem standardisierten, textbasierten Format, um strukturierte Daten auf Basis eines JavaScript Objekts darzustellen. Und damit würde die Automatisierungswelt sich ein großes Stück der IT-Welt annähern. Immerhin – bei den Betriebssystemen ist dieses Zusammenwachsen bereits zu sehen, wie Ulrich Schmidt meint: „Je weiter ich vom Sensor zur Microcontroller-Einheit gehe, desto häufiger kommt heute Linux zum Einsatz, gerade auch dank der Zusatzfunktionen zur Echtzeitfähigkeit. Auch Microsoft versucht, mit Windows 10 IoT, im Edge Bereich Marktanteile zu gewinnen.“

Standards gefordert

„Ein Problem ist aber, dass wir bei den Chips eine total heterogene Landschaft haben“, ergänzt Dr. Felix Winterstein. „Damit ist es nicht mehr möglich, ein Programm zu schreiben und es mit einem Compiler zu kombinieren, so dass es danach einfach auf jedem Rechner läuft. Zudem haben wir in einem verteilten System tausende von Knoten, von kleinen Hardware-Einheiten, die eben nicht alle gleich sind. Dennoch muss die Anwendung auf all diesen verschiedenen Plattformen funktionieren.“ Ein Vorbild, wie diese Herausforderung gemeistert werden kann, sieht der Xelera-CEO in der Telekommunikationsbranche. Hier ermöglicht eine Föderation unabhängiger Netzwerke, dass man überall auf der Welt mit seinem Smartphone eine Verbindung bekommt. „Dafür sorgt unter anderem die ETSI“, so Alexander Willner. Das European Telecommunications Standards Institute ist zuständig für die Erarbeitung von europaweiten Normen, Standards und Spezifikationen auf dem Gebiet der Telekommunikation. „Einer der wenigen Standards, die wir im Edge Computing Bereich haben. Der jedoch im industriellen Kontext keine Rolle spielt und auch wohl in Zukunft nicht adaptiert wird.“

 

„Beim Edge Computing müssen Ressourcen geteilt und verwaltet werden – daher benötigen wir neue Managementansätze.

Dr.-Ing. Alexander Willner, Leiter des Zentrums Industrial Internet of Things, Fraunhofer FOKUS

Eine gewisse Hoffnung setzen die Experten am Tisch in Open-Source-Lösungen: „Mit Open-Source-Technologien lassen sich ganze Landschaften oder Entwicklungsumgebungen bilden, die die Einstiegshürden in die Entwicklung von Edge Anwendungen deutlich senken würden“, meint zum Beispiel Aurel Buda. Thorsten Milsmann sieht darin eine große Chance, Edge Applikationen weiter zu standardisieren und einfacher zu realisieren: „Bei einem offenen Standard können nicht nur mehr Anwender die Lösung nutzen, sondern es können auch mehr etwas dazu beitragen – man hat damit einen Hebel zur weiteren Verbreitung von Edge Lösungen.“ Alexander Willner könnte sich sogar ein komplettes Ökosystem offener Lösungen vorstellen: „Das beginnt bei einem RISC-V Prozessor im Edge Device, geht über Linux-Betriebssysteme und Edge Middelware und reicht bis oben zu jeder Applikation.“ Doch Johannes Kreuzer bleibt da skeptisch: „Zum einen verändert sich jede Komponente in dem System zu schnell. Zum anderen benötigt man für viele Anwendungen einfach spezielle Chips, zum Beispiel FPGA oder DSP.“ Das mache eine durchgängige offene Lösung sehr schwer realisierbar. Thorsten Milsmann betont daher, dass Edge Lösungen auch in Zukunft in Teamarbeit realisiert werden: „Man benötigt Partner für den Aufbau der Infrastruktur, für die erforderlichen Software-Stacks, Security-Fachleute, Integratoren vor Ort und Energie-Experten – alleine kann das keiner mehr schaffen.“ Das könnte ein interessanter Markt für Dienstleister und Systemintegratoren werden.

Auch nichttechnische Herausforderungen

Und vielleicht auch eine Antwort auf die Sorgen derjenigen, die befürchten, dass die Digitalisierung Arbeitsplätze vernichtet. Denn „gerade mit KI-Anwendungen in der Edge können viele Arbeiten automatisiert werden, stärker, als wir es von der Automatisierungstechnik her kennen“, wie Alexander Willner zu Bedenken gibt. Er ist daher ein Freund des bedingungslosen Grundeinkommens, glaubt aber auch, dass viele Arbeitsbereiche in Zukunft durch neue Tätigkeiten ersetzt werden könnten. Gleichzeitig sind sich die Experten einig, dass nur mit einer derartigen Automatisierung der Standort Europa wettbewerbsfähig bleibt und durch KI sogar mehr Jobs geschaffen werden als entfallen. So lautet dann das sokratische Fazit von Alexander Willner zum Thema Edge Computing: „Es wird auch eine spannende, komplett nicht technische Herausforderung.“

Related Posts

  • Im Edge Computing verschmelzen leistungsfähige Elektroniksysteme mit innovativen Softwarelösungen. Daher entwickeln zahlreiche junge Unternehmen neue Produkte für die unterschiedlichsten Anwendungen. Stellvertretend für…

  • Adamm, Orb und Co. Wearables können heute dank Edge Technologie Vitaldaten nicht nur erfassen, sondern auch gleich analysieren. Intelligente Assistenten unterstützen die…

  • IoT-Technologien in Kombination mit Edge Lösungen verändern den Einzelhandel. Es entstehen neue Wege, um mit dem Konsumenten in Interaktion zu treten, und…