Was sind Human-Machine-Interfaces?

Was sind Human-Machine-Interfaces? Die Datenverarbeitung und -Speicherung erfolgt direkt in den Geräten vor Ort. Dadurch ist in vielen Fällen auch eine Schnittstelle zwischen Mensch und Maschine im oder am Edge Gerät erforderlich. Hier werden nicht nur die erfassten Daten dargestellt und Berechnungsergebnisse angezeigt, sondern die Edge Geräte lassen sich auch hierüber bedienen. Immer leistungsfähigere Prozessoren und KI helfen bei der Anzeige komplexer Grafiken. Aber auch eine Übermittlung von Befehlen per Gesten oder Sprache ist möglich.

Was sind Human-Machine-Interfaces?

Jeder Mensch nutzt mehrmals täglich ein Human-Machine-Interface (HMI). Seien es die Schalter an der Kaffeemaschine oder der Drehknopf am Wäschetrockner. Seit einigen Jahren liegen vor allem Touchdisplays im Trend. Sie haben durch das Smartphone breite Verwendung gefunden und finden sich zunehmend auch in anderen Geräten wieder. Wie zum Beispiel vom Haushaltsgerät bis hin zum Auto. Eine Berührung des Bildschirms löst Aktionen aus und steuert Programme.

Bedienung über grafische Oberflächen

Auch Edge Geräte benötigen unter Umständen derartige User Interfaces, letztendlich ist ein Smartphone ja nichts anderes. Dank der immer leistungsstärkeren und kostengünstigeren Prozessoren sind sie heute mit komplexen grafischen Benutzeroberflächen ausgestattet. Sie ermöglichen zusammen mit Farb- und Touchdisplays eine komfortable Bedienung des Gerätes ermöglichen. Sie präsentieren aber auch anschaulich die vom Gerät gesammelten Daten bzw. die Ergebnisse der Datenverarbeitung. Inzwischen bieten alle großen Halbleiterhersteller Microcontroller oder SoCs (System-on-Chips) für derartige Grafikanwendungen.

Aktuell entsteht eine neue Klasse von Embedded HMI. Dabei wird auf einem intelligenten Edge Gerät eine kompakte Bediensoftware aufgespielt. Zum Beispiel bei einem Smart Meter, einem intelligenten Antrieb, einer Spezialsteuerung oder einer anderen Komponente. Die Darstellung der Daten und Bedienelemente erfolgt aber nicht auf einem eigenen Display, sondern mit Hilfe eines Smartphones oder Tablets.

Schnittstelle Stimme

Schon heute steht in vielen Wohnungen ein digitaler Sprachassistent. Wobei die Spracherkennung von Systemen wie Alexa, Siri und Co. heute noch in der Cloud erfolgt. Der Grund hierfür sind die entsprechend hochkomplexen Analyseprozesse, die meist KI-Systeme sowie viel Speicherbedarf und Prozessorleistung benötigen. Die Verarbeitung der Sprachbefehle in der Cloud hat jedoch einen Nachteil. Und zwar, wenn auch eine winzig kleine Verzögerung zwischen gesprochenem Befehl und Reaktion liegt. Doch die Interaktion zwischen Mensch und Gerät soll möglichst intuitiv, natürlich und benutzerfreundlich sein. Daher wird die Spracherkennung in Zukunft in Edge Geräte wandern. Dank der neuen KI-Chips und Speicher stehen dafür die notwendigen Hardware-Ressourcen zur Verfügung.

Es gibt noch andere Gründe, die Spracherkennung in die Edge zu verschieben. „Die nächste Generation von Sprachschnittstellen wird Daten lokal verarbeiten. Weil dies der beste Weg ist, eine vertrauenswürdige, transparente und vertrauliche Beziehung zwischen Menschen und Geräten aufzubauen“, ist sich Joseph Dureau sicher. Er ist CTO des französischen Start-ups Snips.

Das Unternehmen hat einen Sprachassistenten entwickelt, der komplett auf dem jeweiligen Endgerät läuft. Somit keine Internetverbindung erfordert und keine Benutzerdaten in der Cloud sammelt und verarbeitet. So soll vor allem dafür gesorgt werden, dass kein Abhören von Gesprächen möglich ist und die Privatsphäre gewahrt bleibt. Privat-by-Design-Lösung nennt Dureau das. Aber auch die Unabhängigkeit von einer Cloud-Verbindung und Reduzierung des Datenstroms soll gewährleistet sein.

Das System ist dabei für eine Vielzahl von Geräten verfügbar. Die kleinste Lösung läuft bereits auf einem Arm Cortex-M4 Prozessoren bei 100 MHz. Sie ist in der Lage, ein Wake-Wort zu identifizieren und Sprachbefehle wie „play“ oder „pause“ zu verstehen. Für Anwendungsfälle mit großem Wortschatz wird typischerweise ein Quad-Core Cortex-A53-Prozessor benötigt. Auf dieser Art von Hardware erreicht das System auch bei einem umfangreichen Vokabular eine Cloud-Level-Performance. Während die gesamte Verarbeitung auf dem Gerät erhalten bleibt.

Hersteller bieten schlüsselfertige Lösungen an

Auch die Chiphersteller selbst bieten inzwischen spezielle Hardware-Designs an. Diese werden mit kleinem Formfaktor, vollständig integrierter Software und fertig vorbereitet für die Produktion geliefert. Derartige schlüsselfertige Lösungen minimieren die Zeit bis zur Markteinführung, das Risiko und den Entwicklungsaufwand. Außerdem ermöglichen sie OEMs, ihre Smart Home und Smart Appliance Produkte ohne Wi-Fi und Cloud-Konnektivität einfach durch eine Sprachsteuerung zu ergänzen.

Allerdings wird die User Experience ausgebremst, wenn um Energie zu sparen die Spracherkennung erst durch einen Aufweckbefehl aktiviert werden muss. Doch auch hier bietet die Halbleiterindustrie Lösungen. So existieren bereits erste Prozessoren, die speziell entwickelt wurden, um Deep-Learning-Algorithmen für Sprach-Interfaces auszuführen. Die Chips sind dabei rund 100-mal so effizient wie herkömmliche Architekturen von CPUs und DSPs. Damit kann die Sprachsteuerung eines Edge Gerätes immer „wach“ sein, ein Aktivierungsbefehl wäre nicht mehr notwendig.

„Ständig aktive intelligente Assistenten, die sich in Smartphones und Voice-First-Geräten befinden, verbrauchen viel Strom“, so Dina Abdelrazik, Senior Analystin bei Parks Associates. „Die Maximierung der Akkulaufzeit dieser Geräte ist nach wie vor eine Herausforderung für die Hersteller. Ein effektiver Weg, um einen niedrigen Stromverbrauch zu erreichen, besteht darin, sich auf die Effizienz von Komponenten wie Prozessor, Treiber oder Chip zu konzentrieren. Auf diese Weise haben die Hersteller die Möglichkeit, den Leistungsbedarf für die Sprachverarbeitung deutlich zu reduzieren.“

Gesten steuern Edge Geräte

Auch mit immer natürlicheren Systemen zur Sprachsteuerung ist die Entwicklung der Human-Machine-Interfaces für Edge Geräte noch nicht abgeschlossen. Künftig werden Anwendungen dank 3D-Tiefenkameras und -Sensoren auch mit Gesten, dem Kopf oder sogar dem Gesichtsausdruck gesteuert. So arbeitet Google bereits seit einigen Jahren mit dem Project Soli daran, Bewegungen, Gesten und Objekte im freien Raum zu erkennen und dabei vollständig auf Kameras oder Sensoren zu verzichten. Stattdessen erfolgt die Erfassung der Bewegungen über einen winzigen Radarchip, der Bewegungen im Submillimeterbereich mit hoher Geschwindigkeit und Genauigkeit verfolgt. Der Chip ist so klein und energieeffizient, dass er auch in sehr kleine Edge Geräte passt. Aufgrund der Verwendung des Radar-Frequenzbandes stand bisher noch die Genehmigung der zuständigen US-amerikanischen Behörde aus – die Google Anfang 2019 jedoch erhalten hat. Schon bald könnten Edge Geräte also mit einem lässigen Fingerzeig bedient werden.

Related Posts

  • IoT-Technologien in Kombination mit Edge Lösungen verändern den Einzelhandel. Es entstehen neue Wege, um mit dem Konsumenten in Interaktion zu treten, und…

  • Edge Computing verändert die vernetzte Welt von morgen. Es wirkt wie ein Turbo auf die verschiedenen Bereiche in der Technologie ein. Das…

  • Edge Lösungen im Consumer-Bereich sind dank immer leistungsstärkere Embedded-Technologien möglich. Dadurch ermöglichen sie es, auch alltägliche Geräte wie Öfen oder Fernseher mit…