<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>HMI | Future Markets Magazine</title>
	<atom:link href="https://future-markets-magazine.com/de/markets-technology/hmi-technology/feed/" rel="self" type="application/rss+xml" />
	<link>https://future-markets-magazine.com/de/markets-technology/hmi-technology/</link>
	<description></description>
	<lastBuildDate>Tue, 16 Jan 2024 15:26:13 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.6.2</generator>

<image>
	<url>https://future-markets-magazine.com/wp-content/uploads/2021/04/cropped-TQ_byEBV_512x512px-2-32x32.png</url>
	<title>HMI | Future Markets Magazine</title>
	<link>https://future-markets-magazine.com/de/markets-technology/hmi-technology/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Was sind Brain Computer Interfaces?</title>
		<link>https://future-markets-magazine.com/de/markets-technology/was-sind-brain-computer-interfaces-bci/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Mon, 08 Jan 2024 15:34:04 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11634</guid>

					<description><![CDATA[<p>Maschinen und Geräte allein über die Gedanken zu steuern – das ermöglichen Brain Computer Interfaces. Die&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/was-sind-brain-computer-interfaces-bci/">Was sind Brain Computer Interfaces?</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Maschinen und Ger&auml;te allein &uuml;ber die Gedanken zu steuern&nbsp;&ndash; das erm&ouml;glichen Brain Computer Interfaces. Die Technologie findet zunehmend praktische Anwendungen au&szlig;erhalb des Labors.</b></span></p>
<p class="p1">Das menschliche Gehirn enth&auml;lt etwa 86 Milliarden Neuronen. Sie kommunizieren &uuml;ber elektrische Impulse miteinander&nbsp;&ndash; und l&ouml;sen so unter anderem Bewegungen der Muskeln aus. Wie elegant w&auml;re es, wenn man sich den Umweg bisheriger Human Machine Interfaces vom Gehirn &uuml;ber die Muskeln bis zum Umlegen eines Schalters sparen und direkt mit den elektrischen Impulsen des Gehirns ein Ger&auml;t steuern w&uuml;rde? Tats&auml;chlich machen das sogenannte Brain Computer Interfaces (BCI) oder Brain Machine Interfaces (BMI) m&ouml;glich.</p>
<h2 class="p3"><b>Ger&auml;te werden kleiner und preiswerter</b></h2>
<p class="p2">Im Jahr 1925 zeichnete der deutsche Psychiater Hans Berger das erste menschliche Elektroenzephalogramm (EEG) auf. Seitdem hat sich die Technologie im Bereich der Gehirn-Computer-Schnittstellen und der Datenverarbeitung st&auml;ndig verbessert. Seit mindestens zehn Jahren geht der Trend bei der EEG-Hardware dahin, die Ger&auml;te kleiner, drahtlos, tragbar und preiswerter zu machen. Bereits &uuml;ber relativ einfache Headsets k&ouml;nnen grundlegende Messungen der Gehirnstr&ouml;me erfolgen. Das erm&ouml;glicht auch immer mehr praktische Anwendungen au&szlig;erhalb des Labors. Letztendlich k&ouml;nnten BCI nicht nur zur Steuerung von Neuroprothesen verwendet werden, sondern auch f&uuml;r alle computergest&uuml;tzten Ger&auml;te wie Smartphones, Tablets oder ein Smart Home. Zunehmend absehbar werden dar&uuml;ber hinaus immer weitere nicht-medizinische Use-Cases, die von der PC-Spieleindustrie hin zur simultanen Steuerung von Drohnenschw&auml;rmen reichen. Die US-amerikanische Defense Advanced Research Projects Agency (DARPA) arbeitet sogar an einem fortschrittlichen Kommunikationssystem auf Basis von BCI&nbsp;&ndash; mit der &bdquo;Silent Talk&ldquo; genannten L&ouml;sung sollen Soldaten und Milit&auml;rpersonal Befehle &uuml;ber telepathische Kommunikation erteilen.</p>
<h2 class="p3"><b>Medizinische Anwendungen dominieren noch</b></h2>
<p class="p2">Noch ist aber der Medizinsektor der dominierende Markt f&uuml;r BCI. &bdquo;Aktive und passive BCI werden bereits eingesetzt, um die Bewegungskontrolle bei Parkinson mit tiefer Hirnstimulation zu verbessern, epileptische Anf&auml;lle zu detektieren oder Hirnerkrankungen zu diagnostizieren. Der digitale und technische Fortschritt bietet ungeahnte neue M&ouml;glichkeiten und hat ein breites wissenschaftliches und wirtschaftliches Interesse geweckt&ldquo;, schilderte Prof. Florian Mormann von der Deutschen Gesellschaft f&uuml;r Klinische Neurophysiologie und Funktionelle Bildgebung (DGKN).</p>
<p class="p2">So k&ouml;nnen BCI auch die Hirnaktivit&auml;t in Steuersignale f&uuml;r externe Ger&auml;te wie Prothesen, Roboter oder Exoskelette &uuml;bersetzen. Bidirektionale BCI erlauben es dar&uuml;ber hinaus, das Gehirn gezielt elektrisch anzuregen, beispielsweise um ein Tastempfinden beim Steuern einer Prothese zu simulieren.</p>
<p class="p2"><span class="s1">&bdquo;Die Medizintechnik hat in den letzten Jahren enorme Fortschritte gemacht&ldquo;, so Prof. Dr. Alessandro Del Vecchio, Leiter des Neuromuscular Physiology and Neural Interfacing Laboratory (N-squared Lab) an der Friedrich-Alexander-Universit&auml;t Erlangen-N&uuml;rnberg (FAU). &bdquo;Allerdings gibt es noch viel Forschungs- und Entwicklungsbedarf im Bereich der Feinmotorik, um zum Beispiel die Bewegung einzelner Finger gel&auml;hmter H&auml;nde zu erm&ouml;glichen.&ldquo; Gemeinsam mit dem Institut f&uuml;r Fabrikautomation und Produktionssystematik der FAU will das N-squared Lab eine Neuroorthese entwickeln, die die Handfunktion so weit wiederherstellt, dass die Patienten mehr als 90&nbsp;Prozent der allt&auml;glichen Aufgaben selbstst&auml;ndig erledigen k&ouml;nnen. &bdquo;Unser Ziel ist es, die Finger und den Daumen der Hand unabh&auml;ngig voneinander und mit hoher Kraft zu bewegen&ldquo;, sagt Del Vecchio.</span></p>
<p><img fetchpriority="high" decoding="async" class="alignnone size-full wp-image-11639" src="https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung.jpg" alt="Von Gedankensteuerung bis Medizintechnik: Brain Computer Interfaces er&ouml;ffnen neue Dimensionen der HMI in vielen Anwendungsbereichen." width="804" height="872" srcset="https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung.jpg 804w, https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung-184x200.jpg 184w, https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung-277x300.jpg 277w, https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung-768x833.jpg 768w, https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung-800x868.jpg 800w, https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung-295x320.jpg 295w, https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung-138x150.jpg 138w, https://future-markets-magazine.com/wp-content/uploads/2024/01/brain-computer-interfaces-marktentwicklung-289x313.jpg 289w" sizes="(max-width: 804px) 100vw, 804px"></p>
<h2 class="p3"><b>Genauigkeit steigern</b></h2>
<p class="p2">Grunds&auml;tzlich kann bei BCI zwischen invasiven&nbsp;&ndash; die Schnittstelle wird ins Gehirn implantiert&nbsp;&ndash; , teilinvasiven und nichtinvasiven Systemen unterteilt werden. Nichtinvasive BCI haben aktuell noch den weitaus gr&ouml;&szlig;ten Umsatzanteil, denn sie ersparen dem Patienten einen aufwendigen und risikobehafteten chirurgischen Eingriff am Gehirn. &bdquo;Wir haben bereits ein nichtinvasives BCI-System entwickelt, das es Menschen mit hoher Querschnittsl&auml;hmung erm&ouml;glicht, mit willk&uuml;rlicher Ver&auml;nderung ihrer Hirnstr&ouml;me, Alltagsgegenst&auml;nde zu greifen&ldquo;, berichtet Prof. Dr. Surjo R. Soekadar, Einstein-Professor f&uuml;r Klinische Neurotechnologie an der Charit&eacute;, und f&uuml;gt hinzu: &bdquo;Trotz der beachtlichen Fortschritte ist es bislang jedoch nicht gelungen, komplexe Handbewegungen mit einem solchen nicht-invasiven System zu steuern.&ldquo; Doch genau das will das Team um Prof. Soekadar erreichen: Es erprobt derzeit den Einsatz von ultragenauen Sensoren, sogenannten Quantensensoren, die Hirnaktivit&auml;t mit einer wesentlich h&ouml;heren Genauigkeit an der Kopfoberfl&auml;che messen k&ouml;nnen als EEG oder andere nichtinvasive Methoden. Grundlage der Hightech-Sensoren sind gasf&ouml;rmige Atome, die als Magnetfeldsonden fungieren und die auf die elektrischen Hirnsignale reagieren.</p>
<h2 class="p3"><b>Chip im Gehirn</b></h2>
<p class="p2"><span class="s2">Noch einmal deutlich mehr und genauer k&ouml;nnen implantierte BCI Gehirnimpulse erfassen. Tats&auml;chlich testen bereits Unternehmen wie Synchron oder Neuralink entsprechende Implantate am Menschen. Elon Musk war 2016 Mitbegr&uuml;nder von Neuralink und hat versprochen, dass die Technologie &bdquo;es Menschen mit L&auml;hmungen erm&ouml;glichen wird, ein Smartphone mit ihrem Gedanken schneller zu bedienen als jemand, der die Daumen benutzt&ldquo;. Letztendlich aber soll der implantierte Chip das menschliche Gehirn leistungsf&auml;higer machen, bis hin zu einem Versc</span>hmelzen des Gehirns mit K&uuml;nstlicher Intelligenz. Aus Sicht von Prof. Mormann ist das nach heutigem Stand noch reine Zukunftsmusik: &bdquo;Neuroenhancement bedeutet gezielte und spezifische Beeinflussung von Hirnaktivit&auml;t. Voraussetzung daf&uuml;r ist ein detailliertes und mechanistisches Verst&auml;ndnis dieser Aktivit&auml;t. Unser Wissen dazu ist bislang allerdings noch viel zu unvollst&auml;ndig und l&uuml;ckenhaft.&ldquo;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/was-sind-brain-computer-interfaces-bci/">Was sind Brain Computer Interfaces?</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Was ist ein Cobot?</title>
		<link>https://future-markets-magazine.com/de/markets-technology/was-ist-ein-cobot/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Wed, 10 Jan 2024 08:27:35 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11745</guid>

					<description><![CDATA[<p>Kollaborierende Roboter arbeiten in unmittelbarer Nähe zu Menschen – sogar im Team. Die Interaktion zwischen Mensch&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/was-ist-ein-cobot/">Was ist ein Cobot?</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Kollaborierende Roboter arbeiten in </b></span><b>unmittelbarer N&auml;he zu Menschen&nbsp;&ndash; sogar </b><span class="s1"><b>im Team. Die Interaktion zwischen Mensch und Maschine ist also sehr eng und direkt. &Uuml;ber eine Viel</b></span><span class="s2"><b>zahl an Sensoren nimmt der Roboter </b></span><span class="s1"><b>den Menschen wahr und passt seine Bewegungen an ihn an.</b></span></p>
<h2 class="p1"><span class="s1"><b>Was ist ein Cobot? </b></span></h2>
<blockquote>
<p class="p1">Ein Cobot, oder kollaborativer Roboter, ist ein Roboter, der eine Reihe von Sicherheitsmerkmalen und Eigenschaften besitzt, die es ihm erm&ouml;glichen, nicht nur in der N&auml;he von Menschen zu arbeiten, sondern oft auch in Zusammenarbeit mit ihnen.</p>
</blockquote>
<p class="p1"><span class="s1">S</span><span class="s2">eit einigen Jahren dr&auml;ngt eine neue Generation an Robotern auf den Markt, die die Automatisierung von Abl&auml;ufen bei gleichzeitig geringen Kosten und unkomplizierter Zusammenarbeit mit Menschen erm&ouml;glicht: die Cobots. Prof. Dr. Robert Grebner, Pr&auml;sident der Technischen Hochschule W&uuml;rzburg-Schweinfurt: &bdquo;Cobots sind ein wichtiger n&auml;chster Schritt auf den Weg in die Automatisierung komplexer Bewegungsabl&auml;ufe. &Uuml;berall, wo k&ouml;rperlich anstrengende und monotone Arbeiten stattfinden, werden Cobots die Arbeit f&uuml;r den Menschen erleichtern, indem sie in Arbeitsprozesse integriert werden.&ldquo;</span></p>
<p class="p2"><span class="s2">Um die Sicherheit des Menschen zu gew&auml;hrleisten, sind quasi die gesamten Cobots eine einzige Mensch-Maschine-Schnittstelle. Denn nahezu jede ihrer Komponenten ist mit Sensorik ausgestattet, um Menschen zu erkennen. So ist es im Gegensatz zu klassischen Robotik-Anwendungen m&ouml;glich, dass auf Schutzz&auml;une oder &auml;hnliches verzichtet werden kann.</span></p>
<blockquote>
<p class="p1"><span class="s1"><b>32&nbsp;</b></span><b>Prozent Plus jedes Jahr</b></p>
<p class="p1">Der globale Markt f&uuml;r Cobots w&auml;chst von 1,23&nbsp;Milliarden US-Dollar in 2022 auf 11,04&nbsp;Milliarden US-Dollar in 2030</p>
<p class="p3"><span class="s2"><i>Quelle: Grand View Research</i></span></p>
</blockquote>
<h2 class="p3"><span class="s2"><b>Wahrnehmung des Umfelds</b></span></h2>
<p class="p2"><span class="s2">So &uuml;berpr&uuml;ft eine sensible Kraft&uuml;berwachung kontinuierlich Drehmoment und Drehzahl der verschiedenen Antriebe. St&ouml;&szlig;t der Roboter auf ein Hindernis&nbsp;&ndash; was auch ein Mensch sein kann&nbsp;&ndash; wird sofort die Bewegung gestoppt oder sehr vorsichtig und behutsam weitergef&uuml;hrt. Weitere Sensoren erm&ouml;glichen die Wahrnehmung des Umfelds. Die Roboter k&ouml;nnen so ihre Arbeitsweise fr&uuml;hzeitig anpassen, wenn sich ein Mensch n&auml;hert. Beim schwedischen Beleuchtungshersteller Fagerhult&nbsp;Belysning arbeiten zum Beispiel drei Cobots von Motoman. Die Roboter mit jeweils zehn Kilogramm Tragkraft &uuml;bernehmen unter anderem komplexe Montageschritte. Die Besonderheit: Die Cobots wechseln zwischen klassischem Industrieroboter-Modus mit voller Geschwindigkeit und einem sicheren kollaborativen Modus. Dazu erkennen Sicherheitsscanner, ob sich ein Mitarbeiter dem definierten Sicherheitsbereich n&auml;hert und bremsen dann auf ein ungef&auml;hrliches Tempo herab. </span></p>
<h2 class="p3"><span class="s2"><b>Je n&auml;her, desto langsamer</b></span></h2>
<p class="p2"><span class="s2">Das Sicherheitssystem &bdquo;sBot Speed&ldquo; von Sick erm&ouml;glicht dar&uuml;ber hinaus eine adaptive Wahrnehmung des Umfelds: Durch die Koordination von Laserscanner und Sicherheitssteuerung wird der Roboter kontinuierlich verlangsamt, w&auml;hrend sich eine Person weiter in den Arbeitsbereich des Roboters bewegt, bis er schlie&szlig;lich vollst&auml;ndig zum Stillstand kommt. Die M&ouml;glichkeit, die Betriebsbedingungen des Roboters automatisch an die Position von Personen im Umfeld anzupassen, sch&uuml;tzt vor Unfallgefahren und verbessert gleichzeitig die Produktivit&auml;t, denn Stillstandszeiten werden reduziert und Arbeitsabl&auml;ufe optimiert.</span></p>
<h2 class="p3"><span class="s2"><b>Smarte Sicherheitszonen</b></span></h2>
<p class="p2"><span class="s2">Einen etwas anderen Ansatz verfolgt ein Forscherteam vom Fraunhofer IWU. Das Team teilte die Wahrnehmungsbereiche des Roboters neu ein &ndash; in smarte Zonen. Bei schnelleren Bewegungen &bdquo;w&auml;chst&ldquo; eine solche Zone, um ein Kollisionsrisiko mit Menschen auszuschlie&szlig;en. F&uuml;r die Umfelderfassung kommt dabei <a href="https://future-markets-magazine.com/de/encyclopedia/lidar/" target="_blank" title="Eine dem Radar verwandte Methode zur optischen Abstands- und Geschwindigkeitsmessung. Dazu werden Laserstrahlen ausgesendet. Sensoren&hellip;" class="encyclopedia">Lidar</a>-Sensorik (Light Detection and Ranging), die &uuml;ber gepulstes Laser-Licht Objekte erkennt und kategorisiert, ebenfalls zum Einsatz wie Kameras. Die Kombination von Reaktionszeiten (<a href="https://future-markets-magazine.com/de/encyclopedia/lidar/" target="_blank" title="Eine dem Radar verwandte Methode zur optischen Abstands- und Geschwindigkeitsmessung. Dazu werden Laserstrahlen ausgesendet. Sensoren&hellip;" class="encyclopedia">Lidar</a>: 50 Millisekunden, Kamera: 10 Millisekunden) und &Uuml;berwachungsbereichen (<a href="https://future-markets-magazine.com/de/encyclopedia/lidar/" target="_blank" title="Eine dem Radar verwandte Methode zur optischen Abstands- und Geschwindigkeitsmessung. Dazu werden Laserstrahlen ausgesendet. Sensoren&hellip;" class="encyclopedia">Lidar</a>: gr&ouml;&szlig;ere Bereiche; Kamera: Nahfeld) erlaubt nun schnellere Bewegungen des Roboters. Zwar muss bei menschlicher Ann&auml;herung auch weiterhin das Tempo gedrosselt werden, aber deutlich<span class="Apple-converted-space">&nbsp;</span>weniger als bisher: Rund 25&nbsp;Prozent schnellere Roboterbewegungen bedeuten einen erheblichen Effizienzgewinn. </span></p>
<h2 class="p3"><span class="s2"><b>Sensoren effizient verdrahten</b></span></h2>
<p class="p2">Die zahlreichen Systeme, die f&uuml;r die Sicherheit des Menschen sorgen, erfordern in traditionellen Roboterarchitekturen viele Kabelverbindungen f&uuml;r Sensoren und <a href="https://future-markets-magazine.com/de/encyclopedia/aktor/" target="_blank" title="Komponenten, die elektronische Signale in mechanische Bewegung oder andere physikalische Gr&ouml;&szlig;en, zum Beispiel Druck oder&hellip;" class="encyclopedia">Aktor</a>en. Deutlich reduzieren l&auml;sst sich der Verkabelungsaufwand durch den Einsatz der FSoE-Technologie, oder Fieldbus-Safety over <a href="https://future-markets-magazine.com/de/encyclopedia/ethercat/" target="_blank" title="Ein von der Firma Beckhoff entwickelter Feldbus, der sich durch extrem kurze und vorhersagbare Verz&ouml;gerungs-&hellip;" class="encyclopedia">EtherCAT</a>. Fraunhofer IWU, NexCobot und Synapticon haben gemeinsam eine entsprechende Sicherheitsarchitektur entwickelt. Sie ist dezentral ausgelegt und erm&ouml;glicht ein sicheres Miteinander von Mensch und Roboter auch dann, wenn sich die Arbeitssituationen dynamisch ver&auml;ndern&nbsp;&ndash; bei deutlich reduziertem Verkabelungsaufwand. &bdquo;Ein intelligentes Sicherheitssystem &uuml;berwacht die relevanten Bereiche und passt die Robotersteuerung situativ an jede denkbare Interaktion zwischen Mensch und Roboter an&ldquo;, betont Dr. Mohamad Bdiwi, Teamleiter Kollaborative Robotersysteme am Fraunhofer IWU. Ein weiterer Vorteil: Da die Sicherheit der Bewegungsabl&auml;ufe direkt an der Antriebsachse &uuml;berwacht wird, verstreicht deutlich weniger Reaktionszeit.</p>
<h2 class="p3"><span class="s2"><b>Handgef&uuml;hrtes Teaching</b></span></h2>
<p class="p2"><span class="s2">Doch nicht nur bei der Zusammenarbeit unterscheiden sich Cobots von klassischen Industrierobotern in ihrer Interaktion mit dem Menschen, auch beim Programmieren. Denn auch ein Mensch, der kein Roboter-Experte ist, soll dem Cobot schnell und einfach eine neue Aufgabe &bdquo;beibringen&ldquo; k&ouml;nnen. Zum einen wird dabei auf grafische Programmiersysteme oder auch <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>s f&uuml;r Tablets oder Smartphones gesetzt, die keine spezifische Ausbildung voraussetzen. Vor allem aber lernt der Cobot die Ausf&uuml;hrung bestimmter Aufgaben, indem der Mensch ihn buchst&auml;blich an die Hand nimmt: Der Mitarbeiter f&uuml;hrt manuell den Roboterarm durch das geforderte Bewegungsprofil. &Uuml;ber zus&auml;tzliche Bedienkn&ouml;pfe &bdquo;am Handgelenk&ldquo; werden die jeweiligen Positionen gespeichert&nbsp;&ndash; so muss nicht immer jede Position auf dem Handbedienpanel des Roboters best&auml;tigen werden. Durch das sogenannte handgef&uuml;hrte Teaching ist der Cobot sehr schnell einsatzbereit&nbsp;&ndash; Mensch und Maschine arbeiten hier tats&auml;chlich Hand in Hand. </span></p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/was-ist-ein-cobot/">Was ist ein Cobot?</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Bedienung mobiler Arbeitsmaschinen</title>
		<link>https://future-markets-magazine.com/de/markets-technology/bedienung-mobiler-arbeitsmaschinen/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Wed, 10 Jan 2024 08:46:28 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11759</guid>

					<description><![CDATA[<p>Mobile Arbeitsmaschinen haben in den vergangenen Jahren vielfältige technische Weiterentwicklungen erfahren, um die Effizienz bei&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/bedienung-mobiler-arbeitsmaschinen/">Bedienung mobiler Arbeitsmaschinen</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Mobile Arbeitsmaschinen haben in den vergangenen Jahren vielf&auml;ltige technische Weiterentwicklungen erfahren, um die Effizienz bei der Arbeit und die Sicherheit zu verbessern.</b></span></p>
<p class="p1"><span class="s1">A</span><span class="s2">uch bei Land- und Baumaschinen r&uuml;ckt der Mensch </span>immer weiter in den Mittelpunkt der Mensch-Maschine-<span class="s3">Kommunikation. Das bedeutet, dass die Branche zunehmend herk&ouml;mmliche Bedienkonzepte &uuml;berdenken muss: &bdquo;Die Baustelle der Zukunft ist ein st&auml;rker vernetzter Ort und die sogenannte Gamification wird eine wichtige Rolle spielen. Der<span class="Apple-converted-space">&nbsp;</span>demografische Wandel und die Vorlieben der Verbraucher dr&auml;ngen unsere Branche in Bereiche, die im Maschinensektor bisher unbekannt waren oder unzureichend genutzt wurden&ldquo;, erkl&auml;rt Vijayshekhar Nerva, Head of Innovation and Acceleration bei Doosan Bobcat EMEA.</span></p>
<h2 class="p3"><span class="s3"><b>Per Smartphone gesteuerter Lader</b></span></h2>
<p class="p2">Anschaulich zeigt das die Fernsteuerung per Smartphone, die Bobcat entwickelt hat. Damit kann der Bediener seinen Kompaktlader innerhalb von Sekunden fernsteuern, ohne sich um zus&auml;tzliche Ger&auml;te k&uuml;mmern zu m&uuml;ssen. Per Smartphone kann die Maschine in eine staubige oder potenziell unsichere Umgebung geschickt werden und erledigt dort ihre Arbeit, w&auml;hrend der Bediener in sicherer Entfernung bleibt. Die Fernsteuerung kommuniziert &uuml;ber ein <a href="https://future-markets-magazine.com/de/encyclopedia/wlan/" target="_blank" title="Wireless Local Area Network Lokales Funknetz, der vor allem auf dem IEEE-Standard 802.11 im 2,4&hellip;" class="encyclopedia">WLAN</a>-Signal mit dem iOS-Ger&auml;t des Kunden und arbeitet in einer Reichweite von bis zu 100&nbsp;Metern.</p>
<h2 class="p3"><span class="s3"><b>Bedienung per Touch</b></span></h2>
<p class="p2">Doch auch die Bedienelemente in der Fahrerkabine entwickeln sich weiter. Da Land- und Baumaschinen &uuml;ber immer komplexere Funktionen verf&uuml;gen, finden auch im Off-Road-Sektor <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s zunehmend Einsatz. Denn mit ihnen l&auml;sst sich eine Vielzahl von Informationen gezielt aufrufen und anzeigen. Mit speziellen Druckgussgeh&auml;usen und robusten Klebetechnologien halten <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s auch den in diesem Bereich unvermeidbaren Schl&auml;gen und Vibrationen stand. Dabei bietet der integrierte PCAP-Touch optimale Voraussetzungen f&uuml;r eine komfortable Steuerung von Maschinenfunktionen. PCAP steht f&uuml;r &bdquo;Projected Capacitive Touch&ldquo;. Bei dieser Technik wird eine Fenster- oder Glasoberfl&auml;che tastsensitiv ausgef&uuml;hrt, sodass die Benutzer agieren k&ouml;nnen, wie sie es von einem Tablet oder Smartphone mit <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a> gew&ouml;hnt sind.</p>
<h2 class="p3"><span class="s3"><b>Kommunikation per Vibration</b></span></h2>
<p class="p2">Da der visuelle und akustische Sinneskanal des Maschinenf&uuml;hrers im Arbeitsalltag eh schon stark gefordert ist, hat das Unternehmen elobau ein Vibrationsmodul f&uuml;r Joysticks entwickelt. Mithilfe bestimmter Vibrationsmuster l&auml;sst sich eine hochwertige taktile R&uuml;ckmeldung erzeugen, die die Mensch-Maschine-Kommunikation effizienter gestaltet. Der Vibrationsmotor des Moduls wird von einem Elektronikmodul &uuml;ber den CAN-Bus angesteuert. Hersteller k&ouml;nnen &uuml;ber das CAN-Protokoll unterschiedliche Parameter wie St&auml;rke, Dauer oder Anzahl der Vibrationen definieren. Diese Parameter erzeugen individuelle, auf die Anwendung angepasste und vor allem intuitive Vibrationseffekte. So l&auml;sst sich der zu transportierende Informationsgehalt deutlich erh&ouml;hen, verglichen mit einfachen punktuellen Klopfsignalen.</p>
<h2 class="p3"><span class="s3"><b>Adaptives Konzept</b></span></h2>
<p class="p2"><span class="s2">Mit der Vielzahl an Funktionen, die in heutigen Arbeitsmaschinen bedient werden m&uuml;ssen, wird die Bedienkonsole schnell un&uuml;bersichtlich. Eine L&ouml;sung verspricht das Verbundprojekt aISA (adaptive Interfacesysteme im Ackerschlepper). Dabei wurde eine adaptive Armlehne entwickelt, die jeweils ausschlie&szlig;lich die Funktionen des aktuell verwendeten Anbauger&auml;ts zur Verf&uuml;gung stellt. Durch den Isobus kann sich die intelligente Bedienarmlehne adaptiv an jedes Anbauger&auml;t anpassen, sobald dieses angekoppelt wird. Sie stellt dem Nutzer hinsichtlich Position, Verf&uuml;gbarkeit, Visualisierung und Betriebsmodus jeweils eine optimale und ergonomische Schnittstelle zur Verf&uuml;gung. Zu den Komponenten z&auml;hlt unter anderem ein vielseitiger Joystick, der in Abh&auml;ngigkeit von der ben&ouml;tigten Funktion vier unterschiedliche Positionen einnehmen kann, wobei er sich beispielsweise einf&auml;hrt, wenn seine Funktion nicht erforderlich ist. Weitere Bedienelemente werden &uuml;ber eine rotatorische Bedieneinheit zur Verf&uuml;gung gestellt. Jede Position stellt sich entsprechend des angekoppelten Arbeitsger&auml;tes ein und pr&auml;sentiert lediglich die gerade notwendigen Funktionen.</span></p>
<h2 class="p3"><span class="s3"><b>Automatisiertes Belastungsmanagement </b></span></h2>
<p class="p2">Bei der Arbeit mit Bau- und Landmaschinen gibt es typischerweise Phasen sowohl sehr hoher als auch relativ geringer Belastung. &bdquo;Verschiedene Studien haben gezeigt, dass das Wohlbefinden der Menschen am h&ouml;chsten ist, wenn ein mittleres Beanspruchungsniveau vorliegt&ldquo;, berichtet Professor Marcus Geimer vom Karlsruher Institut f&uuml;r Technologie (KIT). Eine &Uuml;berbelastung f&uuml;hre dazu, dass der Fahrer sich nicht gen&uuml;gend auf die wichtigen Aspekte konzentrieren k&ouml;nne, Dinge &uuml;bersieht und fehleranf&auml;lliger wird. Auf der anderen Seite ist auch eine Unterforderung&nbsp;&ndash; zum Beispiel durch eine vollst&auml;ndige Automatisierung&nbsp;&ndash; ein Problem. Die Langeweile, die dadurch entsteht, f&uuml;hre zu M&uuml;digkeit und Konzentrationsverlust.</p>
<p class="p2">Im Rahmen des Forschungsprojekts &bdquo;Fahrerkabine 4.0&ldquo; wird am KIT deshalb eine &bdquo;anpassungsf&auml;hige Mensch-Maschine-Schnittstelle&ldquo; f&uuml;r Landmaschinen entwickelt. Sie ist in der Lage, &uuml;ber Eye-Tracking das aktuelle Beanspruchungslevel der Fahrerinnen und Fahrer zu erkennen. Auch an einem Fitnessarmband, das mithilfe von Lichtsignalen den Puls ermittelt und so das Stresslevel messen kann, wird geforscht. Erkennt das System eine &Uuml;berforderung, werden alle unwichtigen Informationen ausgeblendet. In Situationen der Unterforderung sollen dem Fahrer zus&auml;tzliche Aufgaben angeboten werden. &bdquo;Sinnvolle Zusatzaufgaben f&uuml;r Phasen geringer Belastung kommen aus der Buchhaltung, dem Personal- oder Materialmanagement sowie dem privaten Aufgabenfeld&ldquo;, erkl&auml;rt Patrick Lehr vom Institutsteil &bdquo;Mobile Arbeitsmaschinen&ldquo; am Institut f&uuml;r Fahrzeugsystemtechnik des KIT. Die Handlungsempfehlungen sollen k&uuml;nftig &uuml;ber eine auf <a href="https://future-markets-magazine.com/de/encyclopedia/augmented-reality/" target="_blank" title="Die erweiterte Realit&auml;t ist eine Kombination aus wahrgenommener und vom Computer erzeugter Realit&auml;t. Der Anwender&hellip;" class="encyclopedia">Augmented Reality</a> basierende Schnittstelle ins Sichtfeld des Fahrers projiziert werden, um die Kabine nicht mit Bedienelementen zu &uuml;berladen.</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/bedienung-mobiler-arbeitsmaschinen/">Bedienung mobiler Arbeitsmaschinen</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>HMI in der Smart City: Digital Signage</title>
		<link>https://future-markets-magazine.com/de/markets-technology/hmi-in-der-smart-city-digital-signage/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Thu, 11 Jan 2024 08:19:45 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11815</guid>

					<description><![CDATA[<p>Digitale Infostelen sind eine zunehmend wichtige Möglichkeit, Bürger und kommunale Verwaltungen miteinander zu vernetzen. Da&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/hmi-in-der-smart-city-digital-signage/">HMI in der Smart City: Digital Signage</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Digitale Infostelen sind eine zunehmend wichtige M&ouml;glichkeit, B&uuml;rger und kommunale Verwaltungen miteinander zu vernetzen. Da sie in der Regel im Au&szlig;enbereich installiert werden, kommt dem Schutz vor der Witterung und Vandalismus eine besondere Bedeutung zu.</b></span></p>
<p class="p1">Vernetzte Infrastrukturen aus elektronischen und digitalen Technologien sollen das Leben in der Stadt positiv ver&auml;ndern. Energieeinsparungen, ein effizienterer Verkehrsfluss, mehr &ouml;ffentliche Sicherheit und eine ges&uuml;ndere Umwelt sind nur einige der vielen Vorteile, die eine Smart City bieten kann.</p>
<h2 class="p3"><span class="s1"><b>Digital Signage als Schnittstelle</b></span></h2>
<p class="p2"><span class="s1">Die wichtigste Schnittstelle zwischen den B&uuml;rgern und der Smart City ist dabei sicherlich das Smartphone, &uuml;ber dass sich der Mensch mit der Infrastruktur vernetzen und mithilfe entsprechender <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>s Informationen abrufen, aber auch liefern kann. Doch dar&uuml;ber hinaus ist auch das sogenannte Digital Signage eine wichtige Ressource f&uuml;r Verwaltung, &ouml;ffentlichen Nahverkehr und B&uuml;rger. </span></p>
<p class="p2"><span class="s1">So bieten digitale Infostelen der Firma ST-Digital in Luzern interaktive Stadtpl&auml;ne, ein vielf&auml;ltiges Informationsangebot und zus&auml;tzlichen Werbecontent. Smart City Maps erleichtern Passanten und Touristen dank des integrierten <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s die Orientierung in der Innenstadt. Wegbeschreibungen, Wetterprognosen oder eine umfangreiche Informationsauswahl zu Zielen in der Umgebung sind weitere Beispiele f&uuml;r das Angebot. Die Firma Inputech bietet sogar digitale Anzeige- und Eingabesysteme, die optional mit visuellen Sensoren erweitert werden k&ouml;nnen. Somit werden Eigenschaften, wie beispielsweise Alter, Gr&ouml;&szlig;e und Geschlecht des Passanten, erkannt, und die auf dem Display gezeigte Information wird gruppenspezifisch abgestimmt.</span></p>
<h2 class="p3"><span class="s1"><b>Robuste Signage-L&ouml;sung</b></span></h2>
<p class="p2"><span class="s1">Die Stadtverwaltung der Gemeinde Bussigny im Schweizer Kanton Waadt nutzt eine Digital Signage-L&ouml;sung f&uuml;r den Au&szlig;enbereich, die es ihr erm&ouml;glicht, die Kommunikation mit den B&uuml;rgern an verschiedenen Standorten zu verbessern. Bei der Entwicklung standen die Verantwortlichen vor einigen Herausforderungen: Die L&ouml;sung f&uuml;r den Au&szlig;enbereich sollte zum einen den Elementen standhalten, da sie das ganze Jahr &uuml;ber extremen Witterungsbedingungen ausgesetzt ist. Zum anderen sollte das System in einer &ouml;ffentlichen Umgebung installiert werden und daher auch besonders sto&szlig;fest sein, um vor m&ouml;glichen Sch&auml;den durch Vandalismus gesch&uuml;tzt zu sein. Gefragt war eine Display-L&ouml;sung mit einem Sto&szlig;festigkeitsgrad IK10 nach EN 62262. Eingesetzt wurden schlie&szlig;lich spezielle Outdoor Digital Menu Boards von Peerless-AV. </span></p>
<p class="p2"><span class="s1">Die Smart City-Kioske des Herstellers verf&uuml;gen &uuml;ber ein vollst&auml;ndig abgedichtetes, nach IP66 zertifizierte Design. Das verhindert das Eindringen von Fremdk&ouml;rpern wie Wasser, Staub, Feuchtigkeit und Insekten in das Display. Wichtig gerade f&uuml;r die Aufstellung in der Stadt ist zudem eine hohe Temperaturfestigkeit: Die Displays arbeiten auch bei Betriebstemperaturen zwischen -35&nbsp;&deg;C bis 60&nbsp;&deg;C. Sie k&ouml;nnen mit einem optionalen IR-Touch-Overlay erweitert werden, das bis zu zehn Ber&uuml;hrungspunkte erkennen kann. Geh&auml;use aus Edelstahl, Aluminium und eine entsprechende Lackierung bieten eine hohe Best&auml;ndigkeit gegen Korrosion und auch gegen&uuml;ber Vandalismus. Zudem verf&uuml;gt das Display &uuml;ber ein sto&szlig;festes, geh&auml;rtetes Abdeckglas mit IK10-Einstufung.</span></p>
<h2 class="p3"><span class="s1"><b>Oberfl&auml;chen sch&uuml;tzen</b></span></h2>
<p class="p2"><span class="s1">Sensible resistive sowie kapazitive <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s, aber auch Frontfolien-Tastaturen sind die wichtigsten Human Machine Interfaces im &ouml;ffentlichen Bereich. Die Oberfl&auml;chen der Eingabeger&auml;te m&uuml;ssen dabei gegen vielf&auml;ltige Umgebungsbedingungen gesch&uuml;tzt werden, wie etwa Hitze, UV- oder EMV-Strahlung. Auch sollte sie resistent gegen Vergilbung sein. Neben einer kratzfesten Displayoberfl&auml;che und einem Splitterschutz bei Bruch muss sie jedoch auch vor Vandalismus gesch&uuml;tzt werden. Erreicht werden kann das durch das Laminieren der Oberfl&auml;chen mit speziellen Folien. Die zum Einsatz kommenden Folien und Laminierverfahren sind abh&auml;ngig von der gew&uuml;nschten Technologie (resistiv oder kapazitiv), der Oberfl&auml;che (Glas oder Kunststoff) sowie dem Einsatzbereich und den jeweiligen Umgebungsbedingungen. <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s k&ouml;nnen zudem durch geh&auml;rtetes Schutzglas, was bis zu 10&nbsp;Millimeter dick sein kann, gesch&uuml;tzt werden. Eine alternative Option besteht darin, Sicherheitsglas zu verwenden, das so konzipiert ist, dass es in kleine, abgerundete St&uuml;cke zerbricht, wenn es zerst&ouml;rt wird.</span></p>
<p class="p2"><span class="s1">Die M&ouml;glichkeiten intelligenter digitaler Schilder werden zurzeit erst noch erforscht. Sicher ist aber, dass sie es St&auml;dten erm&ouml;glichen, kontextbezogene und personalisierte Informationen f&uuml;r ihre Gemeinden bereitzustellen und so allen Beteiligten Vorteile bieten werden.</span></p>
<h2 class="p1"><span class="s1"><b>Was ist die IK-Norm EN 62262?</b></span></h2>
<blockquote>
<p class="p2">Die EN 62262 befasst sich mit der Wider<span class="s1">standsf&auml;higkeit bzw. dem Sto&szlig;festigkeits</span>grad IK eines elektrischen Betriebsmittels gegen &auml;u&szlig;ere mechanische Beanspruchung, insbesondere Schl&auml;ge. Es gibt 12 Festigkeitsklassen, angefangen bei der niedrigsten Kategorie IK00 bis hin zur h&ouml;chsten Klassifizierung IK11.</p>
</blockquote>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/hmi-in-der-smart-city-digital-signage/">HMI in der Smart City: Digital Signage</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Human Machine Interfaces im Metaverse</title>
		<link>https://future-markets-magazine.com/de/markets-technology/human-machine-interfaces-im-metaverse/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Thu, 11 Jan 2024 09:47:48 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11843</guid>

					<description><![CDATA[<p>Selten hat ein Begriff so schnell eine so große mediale Aufmerksamkeit erfahren wie das Metaverse.&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/human-machine-interfaces-im-metaverse/">Human Machine Interfaces im Metaverse</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Selten hat ein Begriff so schnell eine so gro&szlig;e mediale Aufmerksamkeit erfahren wie das Metaverse. Im Wesentlichen geht es um das Erleben einer virtuellen Welt, die der Mensch nach seinen Vorstellungen gestalten kann. Eine Schl&uuml;sseltechnologie dabei werden innovative Human Machine Interfaces sein.</b></span></p>
<p class="p2">Nicht weniger als die Zukunft des Internets soll es sein&nbsp;&ndash; das Metaverse. Im Kern geht es um eine neue, komplexe virtuelle Welt, in der man als <a href="https://future-markets-magazine.com/de/encyclopedia/digitaler-zwilling/" target="_blank" title="Digitale Darstellung einer realen Einheit oder eines realen Systems. Die Implementierung eines digitalen Zwillings ist&hellip;" class="encyclopedia">digitaler Zwilling</a> oder <a href="https://future-markets-magazine.com/de/encyclopedia/avatar/" target="_blank" title="Ein Avatar ist eine computergenerierte 3D-Figur, die einen menschlichen Nutzer in der Online-Welt darstellt." class="encyclopedia">Avatar</a> lebt und k&uuml;nftig eventuell auch arbeitet und allt&auml;gliche Aktivit&auml;ten unternimmt. Dabei gibt es zahlreiche Verbindungen mit der realen Welt: So k&ouml;nnen im Metaverse mit realem Geld virtuelle G&uuml;ter gekauft werden. Hinter <a href="https://future-markets-magazine.com/de/encyclopedia/avatar/" target="_blank" title="Ein Avatar ist eine computergenerierte 3D-Figur, die einen menschlichen Nutzer in der Online-Welt darstellt." class="encyclopedia">Avatar</a>en verbergen sich reale Personen, hinter virtuellen Maschinen reale Anlagenparks im Sinne eines digitalen Zwillings. &bdquo;Das Metaverse ist eine der spannendsten Visionen unserer Zeit&ldquo;, sagt Dr. Bernhard Rohleder, Hauptgesch&auml;ftsf&uuml;hrer des deutschen Branchenverbands Bitkom.</p>
<p class="p3">Das Metaverse baut dabei auf Technologien auf, die bereits etabliert sind, wie zum Beispiel Augmented und Virtual Reality, <a href="https://future-markets-magazine.com/de/encyclopedia/blockchain/" target="_blank" title="Virtuelles Transaktionsbuch in einem Netzwerk aus Rechnern. Jede Ver&auml;nderung wird erfasst und dezentral auf mehreren&hellip;" class="encyclopedia">Blockchain</a> oder K&uuml;nstliche Intelligenz. Die Verwendung von virtuellen dreidimensionalen R&auml;umen, Objekten oder Personen zur Darstellung und Interaktion findet nicht nur in den Bereichen Unterhaltung, Marketing und eCommerce immer mehr Anwendung, sondern wird auch vermehrt in der Industrie-, Bildungs- und Dienstleistungsbranche erprobt und angewendet. Was den Nutzern von Computerspielen l&auml;ngst vertraut ist, wird aktuell als Potenzial in den verschiedensten Branchen entdeckt.</p>
<h2 class="p4"><span class="s2"><b>Realit&auml;tsnahe Interaktion</b></span></h2>
<p class="p3"><span class="s3">Ein zentraler Aspekt des Metaverse besteht in der potenziell realit&auml;tsnahen und simultanen Interaktion zwischen verschiedenen Nutzern sowie zwischen Nutzern und Maschinen. Die immensen Fortschritte bei der Hardware &ndash; sowohl auf der Ebene der Infrastruktur als auch der Human Machine Interfaces &ndash; waren Voraussetzung f&uuml;r die zunehmende Akzeptanz der neuen virtuellen Welt. Inzwischen dr&auml;ngen die gro&szlig;en Software-Unternehmen mit eigenen Hardware-L&ouml;sungen auf den Markt: Meta erwarb 2014 den VR-Headset-Entwickler Oculus und verkauft nun eigene Headsets unter dem Namen Quest 2. <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>le hat in den letzten zehn<span class="Apple-converted-space">&nbsp;</span>Jahren mehrere Patente angemeldet und will eine eigene VR-Brille Anfang 2024 auf den Markt bringen. Aktuelle Systeme verwenden zus&auml;tzlich Controller, die durch Finger-, Hand- und Armbewegungen gezielte &bdquo;Ber&uuml;hrungen&ldquo; mit virtuellen Gegenst&auml;nden erm&ouml;glichen. Auf der Infrastrukturseite verringern schnellere Glasfasernetze und die Einf&uuml;hrung von 5G die Auswirkungen von Latenzzeiten und erh&ouml;hen die verf&uuml;gbare Bandbreite.</span></p>
<h2 class="p4"><span class="s2"><b>Zusammenarbeit im virtuellen Raum</b></span></h2>
<p class="p3"><span class="s3">Damit sind heute auch &bdquo;ernsthafte&ldquo; Anwendungen zum Beispiel im industriellen Umfeld m&ouml;glich. So hat zum Beispiel Igus, ein Hersteller von Energieketten und Gleit- und Linearlagern aus Kunststoff, eine eigene virtuelle Welt geschaffen, in der Benutzer aus der ganzen Welt interagieren und an Projekten zusammenarbeiten, ohne dass eine physische Pr&auml;senz erforderlich ist. Mit Extended Reality-Technologien wie Virtual Reality und <a href="https://future-markets-magazine.com/de/encyclopedia/augmented-reality/" target="_blank" title="Die erweiterte Realit&auml;t ist eine Kombination aus wahrgenommener und vom Computer erzeugter Realit&auml;t. Der Anwender&hellip;" class="encyclopedia">Augmented Reality</a> lassen sich beispielsweise Automatisierungsl&ouml;sungen im virtuellen Raum planen, steuern und testen. &bdquo;In der Zukunft werden wir sehen, wie die kollaborative Zusammenarbeit von Menschen im Metaverse und zum Beispiel die Steuerung von Robotern aus virtuellen Welten heraus die Art und Weise ver&auml;ndern, wie wir zusammenarbeiten&ldquo;, sagt Marco Thull, Senior Marketing Activist bei Igus. </span></p>
<h2 class="p4"><span class="s2"><b>Die virtuelle Welt ertasten</b></span></h2>
<p class="p3"><span class="s3">In Zukunft k&ouml;nnte die virtuelle Welt dabei sogar im wahrsten Sinne des Wortes &bdquo;begreifbar&ldquo; werden. J&uuml;rgen Steimle, Informatik-Professor der Universit&auml;t des Saarlandes, m&ouml;chte dies mittels hauchd&uuml;nner elektronischer Folien erreichen, die wie Abziehtattoos auf den K&ouml;rper aufgetragen werden k&ouml;nnen. Denn die meisten Anwendungen der erweiterten Realit&auml;t haben eines gemeinsam: Sie sprechen nur oder haupts&auml;chlich den Sehsinn an. &bdquo;Der Tastsinn bleibt in der Regel au&szlig;en vor, obwohl er ein ganz entscheidender Faktor dabei ist, wie wir unsere Welt wahrnehmen&ldquo;, erkl&auml;rt J&uuml;rgen Steimle, der die Forschungsgruppe zu Mensch-Computer-Interaktion an der Universit&auml;t des Saarlandes leitet.</span></p>
<p class="p3">Steimles Team hat dazu im Projekt &bdquo;Tacttoo&ldquo; eine hauchd&uuml;nne, nur 35&nbsp;Mikrometer dicke elektronische Folie entwickelt, die auf die Haut aufgetragen wird und dort nur durch elektrische Reize, ganz ohne bewegliche Teile, den Tastsinn stimulieren kann. Weil die Folie so d&uuml;nn ist, k&ouml;nnen Gegenst&auml;nde noch wie zuvor wahrgenommen und ertastet werden. So k&ouml;nnen nicht nur&nbsp;&ndash; wie schon mit anderen L&ouml;sungen m&ouml;glich&nbsp;&ndash; haptische Erfahrungen f&uuml;r rein digitale Objekte erzeugt werden, sondern es lassen sich auch reale Objekte um andere Sinneseindr&uuml;cke erweitern. So k&ouml;nnte die Technik beispielweise beim Produktdesign zum Einsatz kommen: Mit Hilfe von <a href="https://future-markets-magazine.com/de/encyclopedia/augmented-reality/" target="_blank" title="Die erweiterte Realit&auml;t ist eine Kombination aus wahrgenommener und vom Computer erzeugter Realit&auml;t. Der Anwender&hellip;" class="encyclopedia">Augmented Reality</a> und eines physischen Prototyps k&ouml;nnte die Haptik verschiedener Materialien ausprobiert werden.</p>
<h2 class="p4"><span class="s2"><b>Standards f&uuml;r offenes Metaverse</b></span></h2>
<p class="p3">Damit das Metaverse breite Anwendung finden kann, m&uuml;ssen die verschiedensten Technologien f&uuml;r die kollaborative r&auml;umliche Datenverarbeitung integriert werden, von interaktiven 3D-Grafiken &uuml;ber physische Simulationen bis hin zur Online-Wirtschaft. Das Potenzial des Metaverse wird sich daher erst erschlie&szlig;en, wenn es auf einer Grundlage offener Standards aufgebaut ist. Dazu hat sich in 2023 das Metaverse Standards Forum gegr&uuml;ndet, ein gemeinn&uuml;tziges Konsortium, das keine eigenen Standards entwickeln will, sondern die verschiedenen Interessensgruppen des Metaverse zusammenbringt, um einen Konsens bei den Interoperabilit&auml;tsanforderungen zu schaffen. &bdquo;Interoperabilit&auml;t ist der Schl&uuml;ssel dazu, dass das Metaverse sein volles Potenzial jenseits von isolierten Spielen, Erlebnissen und Welten entfalten kann&ldquo;, so Neil Trevett, Pr&auml;sident der Khronos Group und erster Pr&auml;sident des Metaverse Standards Forum. &bdquo;Die beispiellose Beteiligung am Forum zeigt das starke Interesse der Branche an einer umfassenden Zusammenarbeit, die notwendig ist, um diese Vision zum Leben zu erwecken.&ldquo;</p>
<p><img decoding="async" class="alignnone size-full wp-image-11844" src="https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien.jpg" alt="Selten hat ein Begriff so schnell eine so gro&szlig;e mediale Aufmerksamkeit erfahren wie das Metaverse. Eine Schl&uuml;sseltechnologie dabei werden innovative Human Machine Interfaces sein." width="1140" height="961" srcset="https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien.jpg 1140w, https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien-237x200.jpg 237w, https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien-300x253.jpg 300w, https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien-768x647.jpg 768w, https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien-800x674.jpg 800w, https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien-320x270.jpg 320w, https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien-178x150.jpg 178w, https://future-markets-magazine.com/wp-content/uploads/2024/01/metaverse-definition-elemente-technologien-371x313.jpg 371w" sizes="(max-width: 1140px) 100vw, 1140px"></p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/human-machine-interfaces-im-metaverse/">Human Machine Interfaces im Metaverse</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Technologien eines immersiven Gaming-Erlebnisses</title>
		<link>https://future-markets-magazine.com/de/markets-technology/technologien-eines-immersiven-gaming-erlebnisses/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Thu, 11 Jan 2024 09:26:45 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11830</guid>

					<description><![CDATA[<p>Immersiv – das ist der zentrale Begriff im Gaming-Bereich. Der Spieler will eintauchen in das Spiel,&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/technologien-eines-immersiven-gaming-erlebnisses/">Technologien eines immersiven Gaming-Erlebnisses</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b><a href="https://future-markets-magazine.com/de/encyclopedia/immersiv/" target="_blank" title="Begriff, der eine Art von Erlebnis oder Technologie beschreibt, die den Benutzer vollst&auml;ndig in eine&hellip;" class="encyclopedia">Immersiv</a>&nbsp;&ndash; das ist der zentrale Begriff im Gaming-Bereich. Der Spieler will eintauchen in das Spiel, er will die virtuelle Welt m&ouml;glichst real erleben. Die Branche bringt dazu immer neue L&ouml;sungen auf den Markt&nbsp;&ndash; vom Game-Controller bis zum Brain-Computer-Interface. </b></span></p>
<p class="p1"><span class="s1">W</span><span class="s1">er schon einmal ganz in einem Spiel versunken ist, der hat erfahren, was der Begriff &bdquo;<a href="https://future-markets-magazine.com/de/encyclopedia/immersiv/" target="_blank" title="Begriff, der eine Art von Erlebnis oder Technologie beschreibt, die den Benutzer vollst&auml;ndig in eine&hellip;" class="encyclopedia">immersiv</a>&ldquo; meint. Er leitet sich vom lateinischen &bdquo;immersio&ldquo; ab, was so viel wie Eintauchen bedeutet. &Uuml;bertragen auf Computerspiele beschreibt dieser Begriff, inwiefern ein Spieler in seiner eigenen Wahrnehmung ein Teil der Spielewelt wird. Neben der reinen Optik, zum Beispiel durch eine Ego-Perspektive, ist dabei auch die Interaktion mit der virtuellen Welt ausschlaggebend.</span></p>
<p><img decoding="async" class="alignnone size-full wp-image-11839" src="https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa.jpg" alt="Die Demografie der Gamer in Europa" width="872" height="1488" srcset="https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa.jpg 872w, https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa-117x200.jpg 117w, https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa-176x300.jpg 176w, https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa-768x1311.jpg 768w, https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa-600x1024.jpg 600w, https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa-188x320.jpg 188w, https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa-88x150.jpg 88w, https://future-markets-magazine.com/wp-content/uploads/2024/01/Demografie-gamer-europa-183x313.jpg 183w" sizes="(max-width: 872px) 100vw, 872px"></p>
<h2 class="p3"><span class="s1"><b>Vertraut sein mit digitaler Technik</b></span></h2>
<p class="p2"><span class="s1">Die Branche nutzt dazu alle M&ouml;glichkeiten, die moderne Human Machine Interfaces bieten&nbsp;&ndash; und ist so zu einem spannenden Experimentierfeld f&uuml;r neue Technologien geworden. &bdquo;Gaming ist l&auml;ngst mehr als reine Unterhaltung. Durch interaktive Spielerlebnisse werden Nutzerinnen und Nutzer auf spielerische Weise mit moderner Technologie vertraut gemacht. W&auml;hrend sie in virtuelle Welten eintauchen, lernen sie intuitiv den Umgang mit digitalen Schnittstellen, Men&uuml;f&uuml;hrungen und Steuerungsm&ouml;glichkeiten&ldquo;, sagt Dr. Sebastian Kl&ouml;&szlig;, Bereichsleiter Consumer Technology beim Bitkom. Diese Vertrautheit junger Menschen mit komplexen Mensch-Maschine-Schnittstellen macht sich heute selbst das Milit&auml;r zunutze und setzt HMI ein, die eher Gaming-Controllern &auml;hneln als milit&auml;rischer Ausr&uuml;stung&nbsp;&ndash; viele Systeme k&ouml;nnen junge Soldaten und Soldatinnen so ohne intensive Schulung nutzen. </span></p>
<h2 class="p3"><span class="s1"><b>Haptisches Feedback im Controller</b></span></h2>
<p class="p2"><span class="s1">Um tats&auml;chlich ein <a href="https://future-markets-magazine.com/de/encyclopedia/immersiv/" target="_blank" title="Begriff, der eine Art von Erlebnis oder Technologie beschreibt, die den Benutzer vollst&auml;ndig in eine&hellip;" class="encyclopedia">immersiv</a>es Spielerlebnis zu erreichen, lassen sich die Hersteller immer wieder Neues einfallen. Das beginnt schon bei dem &bdquo;einfachen&ldquo; Controller wie zum Beispiel der Playstation 5 von Sony: Sie macht durch haptisches Feedback in Form fein abstimmbarer Vibrationen das Spielgeschehen sp&uuml;rbar. Adaptive Trigger erm&ouml;glichen die Anpassung der analogen Schultertasten. So erhalten bestimmte T&auml;tigkeiten im Spiel mehr Nuancen: schie&szlig;en, Gas geben, springen und mehr. Dar&uuml;ber hinaus hat das Unternehmen k&uuml;rzlich ein neues Controller-Design patentieren lassen, das zeigt, wie die Zukunft aussehen k&ouml;nnte: Die Idee ist, einen elastischen Bereich zu integrieren, der seine Form und Temperatur &auml;ndern und auf verschiedene physische Eingaben wie Dr&uuml;cken oder Reiben reagieren kann. Dies w&uuml;rde neue M&ouml;glichkeiten der Immersion er&ouml;ffnen. So k&ouml;nnte der Controller beispielsweise intensive Spielmomente durch W&auml;rme verst&auml;rken.</span></p>
<h2 class="p3"><span class="s1"><b>Dosierter Druck</b></span></h2>
<p class="p2"><span class="s1">Nicht so vision&auml;r, daf&uuml;r aber bereits Realit&auml;t sind Tastaturen mit Force Sensor-Technologie. Sie kommen unter anderem bei speziellen Gaming-Laptops zum Einsatz. Hier werden &uuml;blicherweise die W-, A-, S- und D-Tasten durch eine Kraftfunktion erg&auml;nzt und erm&ouml;glichen Spielern eine viel intuitivere, physische Bedienung. &bdquo;Stellen Sie sich vor, Sie fahren auf der &ouml;rtlichen Autobahn und Ihr Gaspedal ist auf nur zwei Optionen beschr&auml;nkt: &sbquo;Aus&lsquo; oder &sbquo;Vollgas&lsquo;. Die physikalische Realit&auml;t sieht vor, dass die Beschleunigung davon abh&auml;ngt, wie stark Sie auf das Gaspedal dr&uuml;cken oder wie stark Sie das Lenkrad drehen. Das ist der Unterschied, den die intelligente taktile Wahrnehmung von<span class="Apple-converted-space">&nbsp;</span>Peratech ausmacht&ldquo;, erkl&auml;rt Jim Thomas, CCO von Peratech. Das Unternehmen r&uuml;stet zum Beispiel die Gaming-Laptops Lenovo Legion 7i und 7 mit entsprechenden Force-Tasten aus.</span></p>
<h2 class="p3"><span class="s1"><b>Kopfbewegungen erfassen</b></span></h2>
<p class="p2"><span class="s1">Das Lenovo-Spitzenmodell kann zudem die Kopfbewegung des Spielers erfassen. Die integrierte Software-L&ouml;sung von Tobii Horizon nutzt dazu die eingebaute Kamera des Laptops. Die Spieler k&ouml;nnen so das Sichtfeld im Spiel mit ihren Kopfbewegungen steuern. Dreht ein Spieler seinen Kopf nach rechts, folgt die Kamera seinem Blick nach rechts. Das ist insbesondere bei Spielen hilfreich, in denen es wichtig ist, die Umgebung wahrzunehmen, wie bei Ego-Shootern oder Rennspielen.</span></p>
<h2 class="p3"><span class="s1"><b>Versinken in der virtuellen Realit&auml;t</b></span></h2>
<p class="p2"><span class="s1">Richtig in ein Spiel eintauchen k&ouml;nnen Spieler durch die Technologien der Virtual Reality und <a href="https://future-markets-magazine.com/de/encyclopedia/augmented-reality/" target="_blank" title="Die erweiterte Realit&auml;t ist eine Kombination aus wahrgenommener und vom Computer erzeugter Realit&auml;t. Der Anwender&hellip;" class="encyclopedia">Augmented Reality</a>. Spezielle VR-Brillen lassen den Spieler in die k&uuml;nstlich erschaffene, virtuelle Welt versinken. Diese Headsets k&ouml;nnen Halterungen sein, in die ein Smartphone eingesetzt wird &ndash; wie etwa bei der Samsung Gear. Oder es handelt sich um sogenannte &bdquo;Head Mounted Displays&ldquo;, in die die gesamte Technik integriert ist, wie zum Beispiel die Hololens von Microsoft. Bei beiden Ans&auml;tzen steht der Spieler im Mittelpunkt, sein virtueller Blick folgt seiner eigenen Bewegung. Mit ihrer <a href="https://future-markets-magazine.com/de/encyclopedia/immersiv/" target="_blank" title="Begriff, der eine Art von Erlebnis oder Technologie beschreibt, die den Benutzer vollst&auml;ndig in eine&hellip;" class="encyclopedia">immersiv</a>en und interaktiven Natur hat die Virtual Reality die Art und Weise, wie Spiele erlebt werden, revolutioniert. Doch so richtig &bdquo;<a href="https://future-markets-magazine.com/de/encyclopedia/immersiv/" target="_blank" title="Begriff, der eine Art von Erlebnis oder Technologie beschreibt, die den Benutzer vollst&auml;ndig in eine&hellip;" class="encyclopedia">immersiv</a>&ldquo; wird das VR-Erlebnis erst durch Eingabeger&auml;te, die speziell daf&uuml;r entwickelt wurden, die virtuelle Welt realer erscheinen zu lassen. </span></p>
<h2 class="p3"><span class="s1"><b>Interagieren mit Objekten</b></span></h2>
<p class="p2"><span class="s1">Wie zum Beispiel der Oculus Touch: Diese Handheld-Ger&auml;te sind darauf ausgelegt, die Bewegungen der H&auml;nde in der virtuellen Welt nachzuahmen. Ausgestattet mit Sensoren, Tasten und Ausl&ouml;sern erm&ouml;glicht das System dem Spieler, mit Objekten zu interagieren und sich pr&auml;zise und m&uuml;helos durch virtuelle Umgebungen zu bewegen. Der VR-Controller HTC Vive Wand verf&uuml;gt zudem &uuml;ber haptisches Feedback&nbsp;&ndash; so kann der Spieler die virtuellen Objekte, mit denen er interagiert, sogar f&uuml;hlen.</span></p>
<h2 class="p3"><span class="s1"><b>Spiel mit K&ouml;rperbewegungen</b></span></h2>
<p class="p2"><span class="s1">Komplett realistisch wird das Spielerlebnis, wenn die Bewegungen des ganzen K&ouml;rpers genutzt werden k&ouml;nnen, um die Figur durch die virtuelle Welt zu f&uuml;hren: Springen, Laufen, Knien &ndash; das alles erfassen Ganzk&ouml;rper-Trackingsysteme wie Omni One von Virtuix. Dabei handelt es sich um ein omnidirektionales Laufband, das es den Spielern erm&ouml;glicht, in jeder Richtung durch Videospiele und andere virtuelle Umgebungen zu gehen oder zu laufen. Es wird derzeit mit einem Pico Neo 3 Pro-Headset mit 6DoF-Technologie<span class="Apple-converted-space">&nbsp;</span>(6 Degrees of Freedom) und zus&auml;tzlichen Handcontrollern zum Hand- und Gestentracking ausgeliefert. </span></p>
<h2 class="p3"><span class="s1"><b>Mit dem Avatar mitf&uuml;hlen</b></span></h2>
<p class="p2">Wem das immer noch nicht reicht, der kann zuk&uuml;nftig mit seinen Figuren aus dem Spiel auch realistisch mitleiden. Der Spieleanbieter Ubisoft will f&uuml;r sein Game &bdquo;Assasins&rsquo;s Creed Mirage&ldquo; <span class="s1">zum Beispiel ein Shirt mit haptischem Feedback anbieten. Durch das Haptic Gamingsystem von OWO soll der Spieler Empfindungen am K&ouml;rper erfahren, die mit den Aktionen in dem Spiel korrespondiert. &bdquo;Dank der bahnbrechenden Technologien und der Expertise von OWO sind wir in der Lage, die Spieler auf innovative und verbesserte Weise in die Welt, die Ger&auml;usche und das Gef&uuml;hl von Assassin&lsquo;s Creed Mirage eintauchen zu lassen&ldquo;, so Fabian Salomon, Lead Producer bei Ubisoft Bordeaux. Die Empfindungen, die das Shirt vermitteln kann, reichen von starkem </span>Wind oder freiem Fall bis hin zu Messerstichen. Das System lotet <span class="s1">damit auch die Grenzen der Immersion aus. </span></p>
<h2 class="p3"><span class="s1"><b>Nahtlose Interaktion</b></span></h2>
<p class="p2">Die Zukunft der VR-Controller geht jedoch noch dar&uuml;ber hinaus. <span class="s1">Unternehmen wie Neurable arbeiten an Brain-Computer-Schnittstellen, mit denen Spieler virtuelle Umgebungen mit ihren Gedanken steuern k&ouml;nnen. Das Unternehmen, eine Ausgr&uuml;ndung der University of Michigan, entwickelt neurotechnische Referenzdesigns, APIs und Funktionen, die auch au&szlig;erhalb von Laborbedingungen funktionieren und in Alltagstechnologien integriert werden k&ouml;nnen. Neurable lizenziert seine Technologie f&uuml;r Kopfh&ouml;rer, Ohrst&ouml;psel und AR-Ger&auml;te. Dr.&nbsp;Ramses&nbsp;Alcaide, CEO bei Neurable, ist sich sicher: &bdquo;Dies ist erst der Anfang f&uuml;r die Neurotechnologie. Wir stehen an der Schwelle zu einer ethisch vertretbaren, nahtlosen Beziehung zwischen den Menschen und ihrer Technologie.&ldquo; </span></p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/technologien-eines-immersiven-gaming-erlebnisses/">Technologien eines immersiven Gaming-Erlebnisses</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Wie werden wir mit Smart Home-Produkten interagieren?</title>
		<link>https://future-markets-magazine.com/de/markets-technology/wie-werden-wir-mit-smart-home-produkten-interagieren/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Wed, 10 Jan 2024 14:21:38 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11803</guid>

					<description><![CDATA[<p>Smart Home-Anwendungen machen einen Großteil des Marktes für Human Machine Interfaces aus. Das Maß aller&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/wie-werden-wir-mit-smart-home-produkten-interagieren/">Wie werden wir mit Smart Home-Produkten interagieren?</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Smart Home-Anwendungen machen einen Gro&szlig;teil des Marktes f&uuml;r Human Machine Interfaces aus. Das Ma&szlig; aller Dinge ist und bleibt dabei die Art und Weise der Interaktion, die heutige Smartphones bieten.</b></span></p>
<p class="p1"><span class="s1">D</span><span class="s1">as Licht wird per <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a> gesteuert, das smarte Thermostat schaltet die Heizung bei offenem Fenster automatisch ab, der Staubsaugerroboter startet per Sprachbefehl: Smart Home-Ger&auml;te sind l&auml;ngst etabliert, der Markt ein boomendes Milliardengesch&auml;ft. Die Analysten von Brainy Insights sch&auml;tzen, dass der weltweite Smart Home-Markt von 90&nbsp;Milliarden US-Dollar im Jahr 2022 auf 657,41&nbsp;Milliarden US-Dollar im Jahr 2032 anwachsen wird. Damit ist dieser Markt ein wesentlicher Treiber f&uuml;r Human Machine Interfaces&nbsp;&ndash; denn HMI sind die entscheidende Komponente im intelligenten Zuhause, um Smart Home-Ger&auml;te nahtlos in das t&auml;gliche Leben der Bewohner einzubinden.</span></p>
<h2 class="p3"><span class="s1"><b>HMI als Erfolgsfaktor</b></span></h2>
<p class="p2">Dabei steht die Weiterentwicklung der HMI und der damit verbundenen Funktionalit&auml;ten in engem Zusammenhang mit der wachsenden Nachfrage nach Smart Home-Ger&auml;ten. In einer Umfrage, die der weltweit t&auml;tige Auftragsfertiger Jabil zusammen mit SIS International Research unter 200 Entscheidungstr&auml;gern f&uuml;r Smart Home-L&ouml;sungen und -Ger&auml;te durchf&uuml;hrte, gaben 39&nbsp;Prozent an, dass intuitive Mensch-Maschine-Schnittstellen der wichtigste Faktor f&uuml;r den Erfolg ihrer Smart Home-L&ouml;sung sind.</p>
<h2 class="p3"><span class="s1"><b>Multitouch und Bildschirme </b></span></h2>
<p class="p2">In der Jabil-Umfrage gaben 84&nbsp;Prozent der Befragten an, dass sie derzeit Multitouch- und Display-Bildschirme in ihrer Smart Home-L&ouml;sung verwenden&nbsp;&ndash; die zweith&auml;ufigste Antwort. Dar&uuml;ber hinaus erwarten 43&nbsp;Prozent, dass ihre Kunden auch in Zukunft Displays zur Interaktion mit den Smart Home-L&ouml;sungen verwenden werden. Ein Studienteilnehmer hob dabei einen Vorteil besonders hervor: &bdquo;Ein intuitives <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>-Display, einfache Bedienelemente, die die Nutzung erleichtern, und ein durchdachtes Design sorgen daf&uuml;r, dass [das Ger&auml;t] leicht zu reinigen und zu warten ist.&ldquo;</p>
<p><img loading="lazy" decoding="async" class="alignnone size-full wp-image-11804" src="https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern.jpg" alt="Wie werden zuk&uuml;nftige Kunden mit Smart Home-Produkten interagieren?" width="934" height="1049" srcset="https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern.jpg 934w, https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern-178x200.jpg 178w, https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern-267x300.jpg 267w, https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern-768x863.jpg 768w, https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern-800x899.jpg 800w, https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern-285x320.jpg 285w, https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern-134x150.jpg 134w, https://future-markets-magazine.com/wp-content/uploads/2024/01/smart-home-steuerung-hmi-modern-279x313.jpg 279w" sizes="(max-width: 934px) 100vw, 934px"></p>
<h2 class="p3"><span class="s1"><b>Bedienung per Sprachbefehl</b></span></h2>
<p class="p2">Sprachassistenten wie Google Home und Amazon Alexa haben die Bedienung von intelligenten Ger&auml;ten im Zuhause revolutioniert. &bdquo;Das Smart Home ist zum Haupteinsatzgebiet f&uuml;r die Sprachsteuerung von Ger&auml;ten geworden&ldquo;, sagte der damalige Pr&auml;sident des Branchenverbandes Bitkom Achim Berg bereits 2022.</p>
<p class="p2">Systeme wie Alexa oder Siri arbeiten &uuml;ber die <a href="https://future-markets-magazine.com/de/encyclopedia/cloud/" target="_blank" title="IT-Ressourcen werden &uuml;ber das Internet bedarfsgerecht bereitgestellt und nach dem tats&auml;chlichen Verbrauch abgerechnet." class="encyclopedia">Cloud</a>&nbsp;&ndash; das sorgt immer wieder f&uuml;r Bedenken hinsichtlich des <a href="https://future-markets-magazine.com/de/encyclopedia/datenschutz/" target="_blank" title="Bewahrt die schutzw&uuml;rdigen Belange von nat&uuml;rlichen Personen und juristischen Institutionen vor Missbrauch durch elektronische Medien." class="encyclopedia">Datenschutz</a>es. Denn die Daten verlassen das Smart Home und k&ouml;nnten von Dritten genutzt werden. Tats&auml;chlich gaben mehr als drei Viertel (76&nbsp;Prozent) der Hersteller bei der Jabil-Umfrage an, dass sie HMI-Interaktionen wie zum Beispiel Sprachbefehle nutzen, um Daten &uuml;ber ihre Smart Home-L&ouml;sungen zu erfassen. Mehr Sicherheit bez&uuml;glich des <a href="https://future-markets-magazine.com/de/encyclopedia/datenschutz/" target="_blank" title="Bewahrt die schutzw&uuml;rdigen Belange von nat&uuml;rlichen Personen und juristischen Institutionen vor Missbrauch durch elektronische Medien." class="encyclopedia">Datenschutz</a>es bieten Systeme, die die Sprachverarbeitung lokal durchf&uuml;hren: So verf&uuml;gt die Peaknx-Geb&auml;udesteuerung &uuml;ber die Offline-Sprachsteuerung von ProKNX. Diese Funktion agiert autonom und ben&ouml;tigt keine Internetverbindung, um ihre Aufgaben zu erf&uuml;llen. Die gesprochenen Befehle werden lediglich lokal verarbeitet und verlassen das Geb&auml;ude nicht. Eine Aufzeichnung findet ebenfalls nicht statt. So wird ganz nach dem Motto &bdquo;What&rsquo;s said at home, stays at home&ldquo; die Privatsph&auml;re der Bewohner jederzeit gewahrt.</p>
<h2 class="p3"><span class="s1"><b>Holografie ist keine Science-Fiction </b></span></h2>
<p class="p2">Die COVID-19-Pandemie l&ouml;ste eine massive Nachfrage nach ber&uuml;hrungslosen HMI aus, die eine Interaktivit&auml;t wie ein <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a> erm&ouml;glichen, ohne dass die Gefahr einer Kontamination besteht. Eine der effektivsten M&ouml;glichkeiten, dies zu erreichen, sind holografische Projektionen. Entsprechende HMI erzeugen ein holografisches Bild eines Bedienelements, indem der Inhalt eines Displays durch eine spezielle holografische Platte gelenkt wird. Neben einer Winkelablenkung findet dort eine konvergente B&uuml;ndelung der Strahlen statt, die ein frei im Raum schwebendes virtuelles Bild erzeugt. Unterhalb des virtuellen Bildes wird ein Infrarot-Touchsensor montiert. Dessen Strahlengang wird beim &bdquo;Ber&uuml;hren&ldquo; des Bilds unterbrochen. Die Unterbrechung wird als Touch-Ereignis ausgewertet. W&auml;hrend Hersteller von &ouml;ffentlichen Touchpoints bereits holografische HMI zur &bdquo;keimfreien&ldquo; kontaktlosen Bedienung einsetzen, befinden sich <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>likationen f&uuml;r den Smart Home-Bereich eher noch im Entwicklungsstadium&nbsp;&ndash; zum Beispiel f&uuml;r Kaffeemaschinen oder intelligente Fitnessger&auml;te. Immerhin verwenden bereits vier Prozent der Befragten in der Jabil-Umfrage Hologramme in ihren HMI-L&ouml;sungen.</p>
<h2 class="p3"><span class="s1"><b>Gestensteuerung wenig gefragt</b></span></h2>
<p class="p2">Wie bei den holografischen HMI hat COVID-19 die Nachfrage nach L&ouml;sungen mit Gestenerkennung deutlich steigen lassen. Etwas mehr als ein Drittel der Teilnehmer an der Jabil-Umfrage setzen derzeit diese Technologie f&uuml;r ihre HMI ein. Allerdings erwarten nur drei Prozent von ihnen, dass ihre Kunden auch zuk&uuml;nftig die Gestenerkennung zur Interaktion mit ihren Produkten nutzen. Dagegen k&ouml;nnten Gesichtserkennung und Eye-Tracking-L&ouml;sungen Marktanteile bei Smart Home-HMIs gewinnen. Mit derartigen L&ouml;sungen k&ouml;nnte unter anderem die Zug&auml;nglichkeit von Smart Home-Ger&auml;ten f&uuml;r Menschen mit Bewegungs- oder Sprachbehinderungen verbessert werden&nbsp;&ndash; man k&ouml;nnte einfach auf ein Bedienfeld schauen, um die Raumtemperatur oder die Lautst&auml;rke des Fernsehers zu &auml;ndern, anstatt eine Fernbedienung zu benutzen oder einen Befehl auszusprechen.</p>
<h2 class="p3"><span class="s1"><b>Fernsteuerung auf modernste weise</b></span></h2>
<p class="p2">Wichtigste HMI im Smart Home ist allerdings das Smartphone: In Deutschland steuern laut Bitkom 85&nbsp;Prozent ihre Smart Home-Anwendungen und -Ger&auml;te per Smartphone-<a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>, 20&nbsp;Prozent per Fernbedienung. In Zukunft werden zus&auml;tzlich <a href="https://future-markets-magazine.com/de/encyclopedia/wearables/" target="_blank" title="Elektronische Kleinstsysteme, die in Alltagsgegenst&auml;nde eingebettet sind und auf, am oder sogar im K&ouml;rper getragen&hellip;" class="encyclopedia">Wearables</a> zur Steuerung von Smart Home-Ger&auml;ten eingesetzt, wie auch die in der Jabil-Studie befragten Hersteller erwarten.Wenn der Bewohner sein Zuhause betritt, k&ouml;nnen Ger&auml;te wie Smartwatches oder Fitnesstracker zuk&uuml;nftig beispielsweise ein Signal an das Smart Home-Netzwerk senden, um automatisch die Beleuchtung, Heizung oder den Fernseher zu aktivieren.</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/wie-werden-wir-mit-smart-home-produkten-interagieren/">Wie werden wir mit Smart Home-Produkten interagieren?</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Human Machine Interfaces im Automotive-Bereich</title>
		<link>https://future-markets-magazine.com/de/markets-technology/human-machine-interfaces-im-automotive-bereich/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Wed, 10 Jan 2024 14:04:23 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11788</guid>

					<description><![CDATA[<p>Müdigkeit und Ablenkung des Fahrers sind häufige Unfallursachen. Daher beinhalten moderne Human Machine Interfaces im&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/human-machine-interfaces-im-automotive-bereich/">Human Machine Interfaces im Automotive-Bereich</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>M&uuml;digkeit und Ablenkung des Fahrers sind h&auml;ufige Unfallursachen. Daher beinhalten moderne Human Machine Interfaces im Automotive-Bereich Systeme, die den Zustand der Insassen &uuml;berwachen. Sie sind fester Bestandteil der Pr&uuml;fprotokolle von Euro NCAP, der neuen europ&auml;ischen Allgemeinen Sicherheitsverordnung f&uuml;r Fahrzeuge </b></span><span class="s2"><b>und verschiedener anderer Vorschriften </b></span><span class="s1"><b>auf der ganzen Welt.</b></span></p>
<p class="p1">Bis zum Jahr 2030 will die EU die Zahl der Verkehrstoten und -verletzten halbieren. Ein ehrgeiziges Unterfangen, das von der Vorgabe hochmoderner Fahrzeugtechnologien bis hin zur Modernisierung der Infrastruktur alles umfasst. Doch ein Faktor spielt dabei eine besonders gro&szlig;e Rolle: der Mensch. Mehr als 90&nbsp;Prozent aller Unf&auml;lle werden durch menschliche Fehler verursacht. Neben Verst&ouml;&szlig;en wie Geschwindigkeits&uuml;berschreitungen und Fahren unter Alkoholeinfluss spielt es eine wichtige Rolle, ob der Fahrer m&uuml;de oder abgelenkt ist. Laut der Europ&auml;ischen Kommission sind 10 bis 20&nbsp;Prozent der Unf&auml;lle und Beinaheunf&auml;lle auf M&uuml;digkeit zur&uuml;ckzuf&uuml;hren.</p>
<h2 class="p3"><span class="s1"><b>Warnsysteme vorgeschrieben</b></span></h2>
<p class="p2">Um dieses Problem anzugehen, hat die Europ&auml;ische Kommission im August 2021 eine Verordnung ver&ouml;ffentlicht, die seit Juli 2022 den Einsatz von Systemen zur M&uuml;digkeits- und Aufmerksamkeitswarnung (Driver Drowsiness and Attention Warning: DDAW) vorschreibt. Sie bewerten die Wachsamkeit des Fahrers, indem sie andere Fahrzeugsysteme wie die Lenkung und die Spurhaltung analysieren, und warnen den Fahrer bei Bedarf.</p>
<h2 class="p3"><span class="s1"><b>Den Blick im Blick</b></span></h2>
<p class="p2">Sich ausschlie&szlig;lich auf die Daten anderer Fahrzeugsysteme zu verlassen, reicht jedoch nicht unbedingt aus, um den Zustand eines Fahrers zu beurteilen. Daher m&uuml;ssen in der EU ab Mitte 2024 Neufahrzeuge mit einem sogenannten ,<a href="https://future-markets-magazine.com/de/encyclopedia/advanced-driver-distraction-warning-addw/" target="_blank" title="System, das in der Lage ist, den Grad der visuellen Aufmerksamkeit des Fahrers gegen&uuml;ber dem&hellip;" class="encyclopedia">Advanced Driver Distraction Warning (ADDW)</a> System&lsquo; ausger&uuml;stet sein. Die ADDW-L&ouml;sungen der ersten Generation st&uuml;tzten sich in erster Linie auf die Augenbewegungen des Fahrers: Eine Kamera mit <a href="https://future-markets-magazine.com/de/encyclopedia/cmos/" target="_blank" title="Complementary Metal Oxide Semiconductor Bildsensor, bei dem die Umwandlung des Signals durch direkt am Pixel&hellip;" class="encyclopedia">CMOS</a>-Bildsensor beobachtet dabei den Fahrer&nbsp;&ndash; mithilfe von unsichtbarem Infrarotlicht. &bdquo;Das Infrarotlicht erzeugt eine Reflexion auf der Hornhaut des Auges, die von der Kamera eingefangen wird&ldquo;, erl&auml;utert Martin Wittmann, Marketingleiter f&uuml;r den Bereich Sensorik bei OSRAM Opto Semiconductors. &bdquo;&Uuml;ber die Verfolgung der Blickrichtung k&ouml;nnen wir sehen, ob der Fahrer den Blick auf die Stra&szlig;e gerichtet hat. Die Gr&ouml;&szlig;e der Pupille zeigt zudem an, wie wach der Fahrer ist. Schlie&szlig;lich k&ouml;nnen wir auch an den Bewegungen der Augenlider erkennen, wenn der Fahrer m&uuml;de wird.&ldquo; Ist dies der Fall, warnt das System den Fahrer und lenkt seine Aufmerksamkeit wieder auf die Stra&szlig;e.</p>
<h2 class="p3"><span class="s1"><b>Auch die Gesundheit wird &uuml;berwacht</b></span></h2>
<p class="p2">M&uuml;digkeit oder mangelnde Aufmerksamkeit sind allerdings hochkomplexe Zust&auml;nde, daher erfassen L&ouml;sungen der neuesten Generation neben der Augenbewegung weitere Parameter. So hat das Unternehmen Smart Eye in seine Fahrer&uuml;berwachungs-Software auch eine Erfassung der Vitaldaten integriert.</p>
<p class="p2">Mithilfe von KI-Methoden analysiert die neue Funktion mehrere physiologische Signale, um die Herz- und Atemfrequenz des Fahrers genau zu bestimmen. Smart Eye nutzt insbesondere die ,Remote-Photoplethysmographie (rPPG)&lsquo;, eine ber&uuml;hrungslose, kamerabasierte Methode, die Schwankungen der Lichtreflexion von der Haut misst und so eine Sch&auml;tzung der Herzfrequenz erm&ouml;glicht. Eine weitere Methode ist die Mikrobewegungsanalyse, die es der Software erm&ouml;glicht, subtile Ver&auml;nderungen der mit der Atmung oder dem Puls verbundenen Bewegungen zu erkennen, die f&uuml;r das menschliche Auge nicht erkennbar sind. &bdquo;Durch die Integration der Erkennung von Herz- und Atemfrequenz in die Software des Fahrer&uuml;berwachungssystems bieten wir einen noch tieferen Einblick in den Zustand und die Gesundheit des Fahrers&ldquo;, sagt Henrik Lind, Chief Research Officer bei Smart Eye. Das kann sich als lebensrettend erweisen, wenn beispielsweise ein Fahrer einen Herzinfarkt oder Krampfanfall erleidet.</p>
<h2 class="p3"><span class="s1"><b>Radar, Kamera und KI kombiniert</b></span></h2>
<p class="p2">Eine noch genauere Erfassung des Fahrerzustands erlauben Multisensorsysteme, wie sie zum Beispiel die drei Unternehmen emotion3D, Chuhang Tech und SAT gemeinsam entwickeln wollen. Dabei leitet die Software zur &bdquo;Menschenanalyse&ldquo; von emotion3D Informationen &uuml;ber den Fahrer aus Kamerabildern ab, w&auml;hrend die <a href="https://future-markets-magazine.com/de/encyclopedia/radar/" target="_blank" title="Radio Detection and Ranging Erkennungs- und Ortungsverfahren auf der Basis elektromagnetischer Wellen im Radiofrequenzbereich." class="encyclopedia">Radar</a>l&ouml;sungen von Chuhang Tech die Vitalparameter des Fahrers analysieren. Diese beiden Messmethoden werden mit den Algorithmen zur Vorhersage des Einschlafens von SAT kombiniert. Wogong Zhang, CTO und Mitbegr&uuml;nder von Chuhang Tech: &bdquo;Wir glauben, dass unsere gemeinsame L&ouml;sung, die <a href="https://future-markets-magazine.com/de/encyclopedia/radar/" target="_blank" title="Radio Detection and Ranging Erkennungs- und Ortungsverfahren auf der Basis elektromagnetischer Wellen im Radiofrequenzbereich." class="encyclopedia">Radar</a>technologie mit fortschrittlichen Bildgebungsalgorithmen kombiniert, die M&uuml;digkeitserkennung revolutionieren wird.&ldquo;</p>
<h2 class="p3"><span class="s1"><b>Sicherheit f&uuml;r automatisiertes Fahren</b></span></h2>
<p class="p2">Fahrer&uuml;berwachungssysteme werden vor allem im Hinblick auf die zunehmende Automatisierung des Fahrens immer wichtiger. Denn je autonomer ein Fahrzeug wird, umso besserer Sicherheitssysteme bedarf es&nbsp;&ndash; etwa um zu &uuml;berwachen, ob ein Fahrer bereit ist, die Steuerung &uuml;ber das Auto in einer schwierigen Situation &uuml;bernehmen zu k&ouml;nnen. &bdquo;Gerade sehr gut und zuverl&auml;ssig funktionierende Systeme insbesondere etwa in den Bereichen Abstandsregelung und Spurhalten verleiten aber viele Verkehrsteilnehmer dazu, sich auch anderen Aufgaben als dem Fahren zuzuwenden&ldquo;, erkl&auml;rte Jann Fehlauer, Gesch&auml;ftsf&uuml;hrer DEKRA Automobil, bei der Vorstellung des DEKRA Verkehrssicherheitsreports 2023. Mehrere schwere Unf&auml;lle seien schon die Folge einer solchen Fehleinsch&auml;tzung gewesen.</p>
<h2 class="p1"><b>Fahrer&uuml;berwachung st&ouml;&szlig;t noch auf Ablehnung</b></h2>
<p class="p2">Der Gro&szlig;teil der Fahrzeuglenkerinnen und&nbsp;-lenker steht einer elektronischen &Uuml;berwachung der Fahrerin oder des Fahrers, <span class="s1">dem sogenannten Driver Monitoring, zur </span><span class="s2">Fahrerzustandserkennung noch skeptisch </span>gegen&uuml;ber. Das zumindest zeigt eine Studie <span class="s2">des Versicherungsunternehmens Allianz. </span><span class="s1">Danach stimmen lediglich 39&nbsp;Prozent der </span>Befragten einer Kamera- oder Infrarotabtastung von Augen, Gesicht oder Kopf zu, bei der die Technik anonymisiert nur Ablen<span class="s1">kung erkennt. &bdquo;F&uuml;r das Driver Monitoring </span>besteht noch &Uuml;berzeugungsbedarf&ldquo;, sagt Christoph Lauterwasser, Leiter des Allianz Zentrums f&uuml;r Technik. &bdquo;Es soll dabei nicht um Bevormundung gehen, sondern um Unterst&uuml;tzung. Die neuesten Fahrzeug- und Verkehrstechniken erm&ouml;glichen es, Fahrerinnen und Fahrer bei Ablenkung zu war<span class="s2">nen. Schon diese R&uuml;ckmeldung kann zu einer</span><span class="Apple-converted-space">&nbsp;</span>positiven Verhaltens&auml;nderung beitragen. Das sollten wir nutzen, um den Stra&szlig;en<span class="s1">verkehr f&uuml;r uns alle sicherer zu machen.&ldquo;</span></p>
<blockquote>
<p class="p1"><span class="s1"><b>1,3 </b></span><b>Millionen Menschen</b></p>
<p class="p2">sterben laut Sch&auml;tzungen der Weltgesundheitsorganisation WHO jedes Jahr bei Verkehrsunf&auml;llen weltweit.</p>
<p class="p2">Bei Unf&auml;llen, in denen Ablenkung eine Rolle spielte, verletzten sich 2021 in Deutschland 8.233 Menschen, 117 starben, das sind knapp f&uuml;nf Prozent aller Get&ouml;teten (2.562).</p>
<p class="p4"><span class="s2"><i>Quelle: Statistisches Bundesamt</i></span></p>
</blockquote>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/human-machine-interfaces-im-automotive-bereich/">Human Machine Interfaces im Automotive-Bereich</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Wo Mensch und Maschine verschmelzen</title>
		<link>https://future-markets-magazine.com/de/markets-technology/wo-mensch-und-maschine-verschmelzen/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Wed, 10 Jan 2024 13:17:09 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11773</guid>

					<description><![CDATA[<p>Prothesen und Exoskelette sind nichts anderes als Maschinen. Die aber sehr eng mit dem Menschen&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/wo-mensch-und-maschine-verschmelzen/">Wo Mensch und Maschine verschmelzen</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Prothesen und Exoskelette sind nichts anderes als Maschinen. Die aber sehr eng mit dem Menschen interagieren und daher besondere Anforderungen an die Schnittstelle stellen.</b></span></p>
<p class="p1"><span class="s1">E</span><span class="s1">nger geht die Interaktion eigentlich nicht: &bdquo;Wir arbeiten buchst&auml;blich an der Schnittstelle von Mensch und Maschine&ldquo;, erkl&auml;rt Prof. Dr. Claudio Castellini, Professor f&uuml;r Medizinrobotik an der Friedrich-Alexander-Universit&auml;t Erlangen-N&uuml;rnberg (FAU). Er und sein Team erforschen, wie Prothesen weiter verbessert und zuverl&auml;ssiger gemacht werden k&ouml;nnen. &bdquo;Prothesen f&uuml;r die oberen Gliedma&szlig;en haben sich in den letzten Jahrzehnten technologisch stark weiterentwickelt.&ldquo; Ein Glas anheben, die Faust ballen, mit dem Zeigefinger eine Telefonnummer tippen&nbsp;&ndash; hochmoderne robotische H&auml;nde k&ouml;nnen mithilfe biomedizinischer Technologie bereits Erstaunliches bewerkstelligen. Als Human-Machine-Interface wird dabei etwa die Oberfl&auml;chen-Elektromyographie eingesetzt: Hautelektroden erfassen am verbliebenen Armstumpf feinste Muskelregungen. Diese Biosignale werden konvertiert und als elektrische Impulse auf die Prothese &uuml;bertragen. Die &bdquo;Gezielte Muskelreinnervation&ldquo; (Targeted Muscle Reinnervation, TMR) ist dabei eine bew&auml;hrte Behandlungsmethode. In einem chirurgischen Eingriff werden die Nerven im Stumpf, die zuvor den Arm und die Hand gesteuert haben, mit einer neuen Funktion versehen. Sie werden aus dem umliegenden Gewebe herausgel&ouml;st und passgenau an Muskeln in intakten K&ouml;rperregionen angeschlossen. Dies erm&ouml;glicht dem Patienten, seine sp&auml;tere Armprothese &uuml;ber &bdquo;Gedankensignale&ldquo; zu steuern.</span></p>
<p class="p2">Stellt der Anwender sich vor, seinen Phantomarm zu bewegen, geben die Nerven die Signale an die neue Zielmuskulatur weiter, sodass diese angespannt wird. Dabei entstehen elektrische Signale im Millivoltbereich, die von Elektroden im Prothesenschaft gemessen werden. Ein Minicomputer analysiert die Signale und setzt diese in die beabsichtigte Bewegung um. Um mehrere Gelenke gleichzeitig zu bewegen, werden TMR-Armprothese mit bis zu sechs Elektroden ausgestattet. Dadurch kann der Anwender bis zu sechs Bewegungen durch unabh&auml;ngige Muskelsignale steuern. &bdquo;Der Tr&auml;ger oder die Tr&auml;gerin steuert die Handprothese also selbstst&auml;ndig mit dem Armstumpf&ldquo;, erkl&auml;rt Prof. Castellini. &bdquo;Durch Methoden der Mustererkennung und des interaktiven Maschinellen Lernens kann der Mensch der Prothese zudem seine individuellen Bed&uuml;rfnisse beim Ausf&uuml;hren einer Geste oder einer Bewegung beibringen.&ldquo;</p>
<h2 class="p3"><span class="s1"><b>Bewegungsmuster erkennen</b></span></h2>
<p class="p2">Die europaweit erste Prothesensteuerung mit Mustererkennung hat die Firma Ottobock auf den Markt gebracht. Sie misst mit acht Elektroden Bewegungsmuster der Muskeln im Unterarmstumpf und ordnet diese bestimmten Handbewegungen zu. Greift der Patient also nach einer Flasche Wasser, erkennt die Prothesensteuerung das zugeh&ouml;rige Bewegungsmuster und gibt der Prothese den Befehl, den jeweiligen Griff oder die Rotation auszuf&uuml;hren. Das geschieht automatisch. Der Patient kann selbstst&auml;ndig mit einer <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a> die Prothesensteuerung kontrollieren und die gemessenen Bewegungsmuster visualisieren. Dadurch kann der Patient trainieren, diese Muster unterbewusst noch gezielter abzurufen.</p>
<h2 class="p3"><span class="s1"><b>Absichten vorhersehen</b></span></h2>
<p class="p2"><span class="s2">Doch auch diese sehr fortschrittlich anmutenden robotischen Prothesen sind im Hinblick auf Komfort, Funktion und Kontrolle noch nicht ausgereift. Das EU-Horizont-Projekt &bdquo;IntelliMan&ldquo; befasst sich deshalb damit, wie diese effektiver und zielgerichteter mit ihrer Umwelt interagieren k&ouml;nnen. Fokus dabei ist die sogenannte &bdquo;Intent Detection&ldquo;, (deutsch: Absichtserkennung). Prof.&nbsp;Castellini und sein Team entwickeln dazu die Erfassung und Analyse der menschlichen Biosignale weiter und entwerfen innovative Algorithmen des Maschinellen Lernens, um individuelle Bewegungsmuster einer Person auszumachen. &bdquo;Wir nutzen die M&ouml;glichkeiten der Absichtserkennung zur Steuerung von assistiver und rehabilitativer Robotik&ldquo;, erkl&auml;rt der Wissenschaftler. &bdquo;Dazu geh&ouml;ren am K&ouml;rper tragbare Roboter wie Prothesen und Exoskelette, aber auch Roboterarme und Simulationen in der Virtual Reality.&ldquo;</span></p>
<h2 class="p3"><span class="s1"><b>Direkte Schnittstelle mit dem Gehirn</b></span></h2>
<p class="p2"><span class="s1">Nicht nur Menschen, die Gliedma&szlig;e verloren haben, sondern auch denen, die beispielsweise aufgrund einer R&uuml;ckenmarksverletzung, eines Schlaganfalls oder einer anderen Krankheit ihre H&auml;nde oder Beine nicht bewegen k&ouml;nnen, kann moderne Technik helfen. Sogenannte Brain Computer Interfaces (BCI) stellen dabei eine direkte Verbindung zwischen dem menschlichen Gehirn und technischen Systemen her und erm&ouml;glichen die Kontrolle eines Ger&auml;ts allein mittels Hirnaktivit&auml;t. </span></p>
<p class="p2"><span class="s1">Einer der f&uuml;hrenden Hersteller von implantierten Elektroden ist Blackrock Neurotech. Dessen Arrays erfassten bisher Daten aus dem Gehirn &uuml;ber 600&nbsp;Kan&auml;le. Jetzt hat der US-amerikanische Hersteller ein BCI vorgestellt, das mit mehr als 10.000&nbsp;Kan&auml;len arbeitet&nbsp;&ndash; was eine exponentielle Steigerung der F&auml;higkeiten erm&ouml;glicht. &bdquo;Wenn unser bisheriges BCI Menschen mit nur sechshundert Kan&auml;len helfen kann, sich zu bewegen und wieder zu f&uuml;hlen, stelle man sich vor, was wir mit zehntausend oder mehr Kan&auml;len erreichen k&ouml;nnen&ldquo;, so Florian Solzbacher, Mitbegr&uuml;nder und Pr&auml;sident von Blackrock Neurotech. Er plant, mithilfe des neuen BCI bis 2028 eine Sehprothese zu entwickeln. &bdquo;Dies ist ein Vorgeschmack auf das, was in der Zukunft mit BCI m&ouml;glich sein wird. </span></p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/wo-mensch-und-maschine-verschmelzen/">Wo Mensch und Maschine verschmelzen</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>User Experience rückt in den Fokus</title>
		<link>https://future-markets-magazine.com/de/markets-technology/user-experience-rueckt-in-den-fokus/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Wed, 10 Jan 2024 08:07:12 +0000</pubDate>
				<category><![CDATA[HMI]]></category>
		<category><![CDATA[Markets & Technology]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11729</guid>

					<description><![CDATA[<p>Bediener von Werkzeugmaschinen müssen sich auf ihre Arbeit konzentrieren können. Bei der Entwicklung von Human&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/user-experience-rueckt-in-den-fokus/">User Experience rückt in den Fokus</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Bediener von Werkzeugmaschinen m&uuml;ssen sich auf ihre Arbeit konzentrieren k&ouml;nnen. Bei der Entwicklung von Human Machine Interfaces in der Industrie r&uuml;ckt daher immer mehr eine intuitive, multimodale Bedienung in den Fokus. Klassische Bedienelemente werden durch virtuelle Schalter auf <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s ersetzt, die zuk&uuml;nftig durch Gesten- und Spracherkennung erg&auml;nzt werden.</b></span></p>
<p class="p1">Heutzutage erfordert die Bedienung komplexer CNC-Werkzeugmaschinen noch eine mehrj&auml;hrige Ausbildung und solide technische Kenntnisse. Doch die Branche leidet zunehmend unter einem Mangel an entsprechend qualifizierten Fachkr&auml;ften. Die Hersteller reagieren darauf, indem sie Maschinen entwickeln, die intuitiv zu bedienen sind. Aktuelle Werkzeugmaschinen sind in der Lage, durch integrierte Feedbacksysteme und der Anzeige von visuellen Handlungsaufforderungen die Bedienbarkeit so zu vereinfachen, dass auch wenig erfahrene Bediener in kurzer Zeit das Handling der Maschine verstehen.</p>
<h2 class="p3"><span class="s1"><b>Intuitive Bedienoberfl&auml;chen</b></span></h2>
<p class="p2">Ein Beispiel hierf&uuml;r ist das Bedienkonzept &bdquo;C.O.R.E.&ldquo; des Werkzeugmaschinenherstellers United Grinding, das in 2022 von der Jury der UX Design Awards f&uuml;r die User- und Customer Experience ausgezeichnet wurde. Kern des Human-Machine-Interface ist ein Multitouch-Display, das auf Tasten weitestgehend verzichtet. Selbsterkl&auml;rende Icons vereinfachen die Navigation durch das Maschinenmen&uuml; und die Prozessschritte. Jeder Bediener kann sich seine Bedienoberfl&auml;che individuell konfigurieren. &Uuml;ber einen <a href="https://future-markets-magazine.com/de/encyclopedia/rfid/" target="_blank" title="Radio-Frequency-Identification RFID ist eine Technologie f&uuml;r die ber&uuml;hrungslose Daten&uuml;bertragung auf Basis von Radiowellen. Herzst&uuml;ck der&hellip;" class="encyclopedia">RFID</a>-Chip mit hinterlegtem Rollenprofil identifiziert sich der Anwender und &bdquo;seine&ldquo; Oberfl&auml;che wird automatisch aufgerufen. &bdquo;Uns war es wichtig, dass die neue Bedienung alle Generationen von Nutzern anspricht&ldquo;, erl&auml;utert Christoph Pl&uuml;ss, CTO der United Grinding Group. &bdquo;Wir haben uns daher an den Bedienkonzepten orientiert, die heute in der Konsumelektronik weit verbreitet sind und mit denen praktisch jeder aus dem Alltag vertraut ist.&ldquo;</p>
<h2 class="p3"><span class="s1"><b>Fernbedienung per Smartphone</b></span></h2>
<p class="p2"><span class="s2">Dazu geh&ouml;ren mehr und mehr auch kabellose HMI-L&ouml;sungen, die &uuml;ber <a href="https://future-markets-magazine.com/de/encyclopedia/wi-fi/" target="_blank" title="Bezeichnung sowohl f&uuml;r ein Firmenkonsortium, das Ger&auml;te mit Funk-Schnittstellen zertifiziert, als auch f&uuml;r den zugeh&ouml;rigen&hellip;" class="encyclopedia">Wi-Fi</a> und <a href="https://future-markets-magazine.com/de/encyclopedia/bluetooth/" target="_blank" title="International standardisierte Datenschnittstelle per Funk. Sie schafft die Voraussetzung, dass sich unterschiedliche tragbare Ger&auml;te wie&hellip;" class="encyclopedia">Bluetooth</a> verbunden werden k&ouml;nnen. Sie bieten ein Maximum an Bewegungsfreiheit und Flexibilit&auml;t. Zunehmend wird auch dar&uuml;ber nachgedacht, bei der Maschinenbedienung auf Industrie-Hardware zu verzichten und stattdessen Standardger&auml;te aus dem Consumer-Bereich zu verwenden. Schon heute ist es &uuml;blich, dass Maschinendaten per <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a> auf einem Smartphone oder Wearable abgerufen werden k&ouml;nnen. Allerdings ist eine wirkliche Bedienung der Maschine aktuell nur f&uuml;r die nicht zeitkritische Ablaufsteuerung realistisch, denn Consumer-Ger&auml;te verf&uuml;gen nicht &uuml;ber die erforderliche Sicherheitsarchitektur, um die <a href="https://future-markets-magazine.com/de/encyclopedia/funktionale-sicherheit/" target="_blank" title="Ein System gilt dann als funktional sicher, wenn seine elektrischen, elektronischen und programmierbaren Komponenten stets&hellip;" class="encyclopedia">funktionale Sicherheit</a> zu gew&auml;hrleisten. Angesichts der Tatsache, dass Smartphones und Tablets vor allem durch ihre einfache Handhabung bestechen, k&ouml;nnte diese Technik aber durchaus die Automatisierung in naher Zukunft bestimmen. </span></p>
<h2 class="p3"><span class="s1"><b>Sprachgesteuerte Benutzerschnittstellen</b></span></h2>
<p class="p2">Vor allem als Erg&auml;nzung traditioneller grafischer Benutzeroberfl&auml;chen werden zunehmend auch sprachgesteuerte Benutzerschnittstellen in industrielle HMI-Konzepte eingebunden. Durch die steigende Genauigkeit und Leistungsf&auml;higkeit der Technologie zur Verarbeitung nat&uuml;rlicher Sprache (NLP) k&ouml;nnen Maschinen damit komplexe Sprachbefehle verstehen und entsprechend reagieren. Das Unternehmen Voice Inter Connect bietet zum Beispiel eine Sprachsteuerung f&uuml;r Industrieanwendungen als fertiges Kit an. Echtzeitf&auml;higkeit, KI-basierte semantische Analysen und Algorithmen f&uuml;r <a href="https://future-markets-magazine.com/de/encyclopedia/beamforming/" target="_blank" title="Prozess der Fokussierung eines Funksignals mittels intelligenter Mehr-Antennentechnik in eine bestimmte Richtung, wodurch eine bessere&hellip;" class="encyclopedia">Beamforming</a> und Noise-Cancelling sorgen f&uuml;r hohen Bedienkomfort und Audioqualit&auml;t. Das System kann zudem akustisches Feedback in Form von Eingabeaufforderungen oder Text-to-Speech f&uuml;r die Sprachausgabe aufbereiten. Dank lokaler Sprachverarbeitung ben&ouml;tigt die Sprachsteuerung keine Internetverbindung und erf&uuml;llt damit hohe Anspr&uuml;che an Sicherheit und <a href="https://future-markets-magazine.com/de/encyclopedia/datenschutz/" target="_blank" title="Bewahrt die schutzw&uuml;rdigen Belange von nat&uuml;rlichen Personen und juristischen Institutionen vor Missbrauch durch elektronische Medien." class="encyclopedia">Datenschutz</a>.</p>
<h2 class="p3"><span class="s1"><b>OK per Geste</b></span></h2>
<p class="p2"><span class="s1">Eine nat&uuml;rliche Erg&auml;nzung der Mensch-Maschine-Schnittstellen f&uuml;r Werkzeugmaschinen k&ouml;nnte auch eine Gestensteuerung sein. Doch &bdquo;die Bedienung von Maschinen &uuml;ber Interfaces ist sehr visuell gepr&auml;gt&ldquo;, wie Prof. Dr.-Ing. Katrin Wolf, Leiterin der<span class="Apple-converted-space">&nbsp;</span>Forschungsgruppe &bdquo;Human-Computer-Interaction&ldquo; an der Berliner Hochschule f&uuml;r Technik erl&auml;utert. Noch w&uuml;rden Handbewegungen kaum f&uuml;r die Interaktion genutzt. Eine Begr&uuml;ndung hierf&uuml;r: &bdquo;F&uuml;r die Menschen ist es unbequem, Gesten zu erlernen und anschlie&szlig;end korrekt auszuf&uuml;hren, ohne visuelles Feedback oder Unterst&uuml;tzung bei Fehlern zu erhalten.&ldquo; Im Forschungsprojekt WINK erforscht das Team um Prof. Wolf daher, wie sich R&uuml;ckmeldungen &uuml;ber taktile Reize geben lassen. Daf&uuml;r konstruieren die Wissenschaftler spezielle Armb&auml;nder f&uuml;r den Unterarm, die sp&uuml;rbare Signale an die Haut &uuml;bertragen k&ouml;nnen. Die Forscher kooperieren dabei mit der Firma Trumpf. Der Werkzeugmaschinenhersteller will die Arbeit mit einem Lasercutter effizienter machen. An einer Seite schieben die Bediener die Stahlplatten in die Industriemaschine, auf der anderen Seite kommen zugeschnittene Bauteile heraus. Dort &uuml;berpr&uuml;fen die Angestellten deren Qualit&auml;t. Sind fehlerhafte Zuschnitte darunter, m&uuml;ssen sie auf die andere Seite der Maschine gehen und an einer Tastatur den Befund vermerken. Die Idee: Mit einer simplen Handbewegung, etwa in Form eines Hakens, der ein &bdquo;OK&ldquo; symbolisiert, k&ouml;nnten die Mitarbeiter der Maschine R&uuml;ckmeldung geben, ohne hin- und hergehen zu m&uuml;ssen. Zur Gestenerkennung kommt bei Trumpf ein Armband von Kinemic zum Einsatz. Es erkennt zweidimensionale Gesten anhand der Bewegung, gibt jedoch nur Ton sowie Vibration &uuml;ber einen verbauten Motor zur&uuml;ck. Das Team um Prof. Wolf will aber komplexere Vibrationsmuster realisieren und dazu mehr Motoren integrieren. Ein Prototyp existiert bereits. Dennoch: &bdquo;Der Einsatz von Haptik f&uuml;r die Steuerung digitaler Ger&auml;te wird noch viele Jahre ein Forschungsfeld bleiben&ldquo;, ist Prof. Katrin Wolf &uuml;berzeugt. </span></p>
<p>The post <a href="https://future-markets-magazine.com/de/markets-technology/user-experience-rueckt-in-den-fokus/">User Experience rückt in den Fokus</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
