Smart Factorys liefern im Jahr Billiarden Bytes an Daten von Werkzeug- und Produktionsmaschinen – Big Data, die zu Smart Data verdichtet werden müssen, um Optimierungspotenzial zu identifizieren und Wettbewerbsvorteile nutzen zu können.
Smart Data werden zur vorausschauenden Wartung, zur Effizienzoptimierung sowie zur Erreichung des optimalen Betriebspunktes genutzt. Das spart bis zu 30 Prozent Material, Energie, Kosten und Arbeitsaufwand und schont die Umwelt“, so Prof. Wolfgang Wahlster, CEO des Deutschen Forschungszentrums für Künstliche Intelligenz DFKI. „In den meisten Fällen erreicht man diese Mehrwerte aber nur, wenn die Auswertung auch in Echtzeit geschieht, so dass Ergebnisse der Smart Data-Analyse direkt in die Prozesssteuerung einfließen können – sozusagen Smart Data Analytics in the loop. Wir haben solche Systeme nicht nur in unserer weltweit ersten Smart Factory für Industrie 4.0 (…) entwickelt, sondern erproben die Verfahren jetzt auch in entsprechend aufgerüsteten Fabrikanlagen zum Beispiel im Bereich der Bierabfüllung, der Medikamentenverpackung oder bei der Ventilproduktion“, ergänzt Wahlster.
Intelligente Datenlogger sammeln und analysieren Daten
Eine Möglichkeit, die gewaltigen Datenmengen reaktionsschnell zu verarbeiten, besteht in verteilter Intelligenz. Das bedeutet, dass einzelne Komponenten oder Module so intelligent und autonom gemacht werden, dass sie selbst bestimmen können, welche Informationen wertvoll sind. Um nicht jeden Sensor und jeden Aktor in der Anlage mit einer derartigen Intelligenz ausstatten zu müssen, können Datenlogger zwischengeschaltet werden.
Dabei handelt es sich um prozessorgesteuerte Speichereinheiten, die Daten in einem regelmäßigen Rhythmus von einem oder auch mehreren Sensoren aufnehmen und speichern. Dazu bestehen Datenlogger aus einem programmierbaren Mikroprozessor, einem Speichermedium wie einer Festplatte oder einem Flash-Speicher, mindestens einer Schnittstelle zur Kommunikation mit übergeordneten Strukturen und einem oder mehreren Kanälen zum Anschluss der Datenquellen. Moderne Datenlogger können Daten nicht nur sammeln und speichern, sondern auch in hoher Geschwindigkeit verarbeiten und analysieren.
In-Memory-Computing Basis für schnelle Analysen
Diese vorgefilterten Daten werden im Industrie 4.0-Konzept dann über das Netzwerk in eine Datenbank übergeben. Eine Software macht sie vergleichbar und stellt Zusammenhänge zwischen ihnen her. Damit diese Informationen jedoch tatsächlich in Echtzeit für Entscheidungen zur Verfügung stehen, reichen die bisherigen Datenbank-systeme nicht aus: Denn hier liegen die Daten einer Fabrik oftmals in vielen verschiedenen Datenbanken und eventuell sogar auf verschiedenen Speichermedien. Ein schneller Zugriff ist so oftmals unmöglich. Durch die Entwicklung der Speichertechnologie können heute Datenvolumen im Hauptspeicher eines Computers abgelegt werden. Diese Verarbeitung im Hauptspeicher – „In-Memory-Computing“ genannt – ermöglicht zusammen mit der generellen Zunahme der Rechengeschwindigkeit eine Echtzeitanalyse umfangreicher Datenbestände. In-Memory-Computing ist damit eine Voraussetzung für leistungsfähige Big Data-Applikationen. Auch alle großen Webanwendungen mit vielen Nutzern und Daten laufen aus Geschwindigkeitsgründen im Wesentlichen „in Memory“, also im Hauptspeicher, ab. Bekannte Beispiele sind Google, Facebook oder auch Amazon.
Cloud bietet Ressourcen nach Bedarf
Um derartige Ressourcen flexibel und nach Bedarf nutzen zu können, bietet es sich an, sie in der Cloud vorzuhalten. Zudem können die Daten so von den unterschiedlichsten Anwendern genutzt werden, ganz gleich, wo auf der Welt sie ihren Standort haben. Das ist wichtig, wenn in das Industrie 4.0-Konzept eines Unternehmens mehrere Niederlassungen eingebunden sind oder Daten auch von Zulieferern oder Kunden genutzt werden sollen.
„Big Data-Lösungen geben Unternehmen die Möglichkeit, den Umsatz mit bestehenden Produkten zu steigern, schneller Produkte auf den Markt zu bringen, neue Geschäftsmodelle zu entwickeln, um Kunden besser bedienen zu können, und Betriebskosten zu senken“, so Stefan Schöpfel, Global Vice President für Big Data and Analytics Services bei SAP. Das Software-Haus hat mit SAP HANA eine entsprechende In-Memory-Plattform geschaffen und bietet darauf basierend verschiedene Lösungen an, mit denen Unternehmen große Datenmengen in Echtzeit auswerten und die so gewonnenen Erkenntnisse direkt in ihre Geschäftsprozesse einfließen lassen können.
(Bildnachweis: Shutterstock)