<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Human Machine Interfaces | Future Markets Magazine</title>
	<atom:link href="https://future-markets-magazine.com/de/innovators/hmi-innovators/feed/" rel="self" type="application/rss+xml" />
	<link>https://future-markets-magazine.com/de/innovators/hmi-innovators/</link>
	<description></description>
	<lastBuildDate>Thu, 31 Oct 2024 10:59:44 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.6.2</generator>

<image>
	<url>https://future-markets-magazine.com/wp-content/uploads/2021/04/cropped-TQ_byEBV_512x512px-2-32x32.png</url>
	<title>Human Machine Interfaces | Future Markets Magazine</title>
	<link>https://future-markets-magazine.com/de/innovators/hmi-innovators/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Spannende Human Machine Interfaces Start-ups</title>
		<link>https://future-markets-magazine.com/de/innovators/spannende-human-machine-interfaces-start-ups/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Tue, 16 Jan 2024 13:21:06 +0000</pubDate>
				<category><![CDATA[Human Machine Interfaces]]></category>
		<category><![CDATA[Innovators]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11978</guid>

					<description><![CDATA[<p>Start-ups auf der ganzen Welt arbeiten an innovativen Lösungen für eine immer natürlichere Interaktion mit&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/innovators/spannende-human-machine-interfaces-start-ups/">Spannende Human Machine Interfaces Start-ups</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Start-ups auf der ganzen Welt arbeiten an innovativen L&ouml;sungen f&uuml;r eine immer nat&uuml;rlichere Interaktion mit Maschinen und Computern. Wir stellen exemplarisch f&uuml;r diesen Erfindergeist sechs spannende Unternehmen vor.</b></span></p>
<h2 class="p2"><span class="s1"><b>Kognitiven Zustand erkennen</b></span></h2>
<p class="p3">Die von CorrActions entwickelte Deep-Tech-Gehirn&uuml;berwachung nutzt vorhandene Bewegungssensoren, zum Beispiel im Lenkrad, um den kognitiven Zustand von Fahrern und Passagieren zu erkennen. Dabei werden Mikrobewegungen analysiert, die auf eine Vielzahl von kognitiven Symptomen hinweisen, beispielsweise, wenn ein Fahrer betrunken oder &uuml;berm&uuml;det ist. Die vorhandene Hardware im Fahrzeug muss dazu nicht ver&auml;ndert werden.</p>
<p class="p4"><a href="http://www.corractions.com" target="_blank" rel="noopener noreferrer">www.corractions.com</a></p>
<h2 class="p2"><span class="s1"><b>Transparentes Display</b></span></h2>
<p class="p3">Die Transparenz des von United Screens entwickelten 55&nbsp;Zoll gro&szlig;en OLED-Panels liegt bei rund 40&nbsp;Prozent. Das erm&ouml;glicht es, ein Objekt im Hintergrund zur Inszenierung durchscheinen zu lassen. Ein Infrarot-Touch-Rahmen erfasst bis zu zehn gleichzeitige Touchpoints und l&auml;dt zur intuitiven Interaktion mit den gezeigten Inhalten ein. Das Display kann als Hingucker auf einem Event oder als Digital Signage eingesetzt werden.</p>
<p class="p4"><a href="http://www.corractions.com" target="_blank" rel="noopener noreferrer">www.united-screens.tv</a></p>
<h2 class="p5"><span class="s1"><b>Die virtuelle Welt ertasten</b></span></h2>
<p class="p3">HaptX hat Human Machine Interfaces in Form von Handschuhen entwickelt, die &uuml;ber Hunderte von mikrofluidischen Aktuatoren Ber&uuml;hrungsempfindungen simulieren. Damit ist eine nat&uuml;rliche Interaktion und echte Ber&uuml;hrungshaptik in der virtuellen Realit&auml;t und Robotik m&ouml;glich. In einer Multiplayer-Kollaboration k&ouml;nnen mehrere Benutzer in derselben virtuellen Umgebung arbeiten und dieselben Objekte ertasten.</p>
<p class="p4"><a href="http://www.haptx.com" target="_blank" rel="noopener noreferrer">www.haptx.com</a></p>
<h2 class="p2"><span class="s1"><b>Leichtgewichtige AR-Brille </b></span></h2>
<p class="p3">Das AR-Headset von Kura bietet eine 95-prozentige Linsentransparenz und ein 150-Grad-Sichtfeld in einem kompakten Formfaktor, der sich kaum noch von einer normalen Brille unterscheidet. Dank der hohen Transparenz ist ein nat&uuml;rlicher Augenkontakt m&ouml;glich, der Benutzer kann auch andere Aufgaben erledigen, w&auml;hrend er das Headset nutzt. Dabei dringt kein Licht nach vorn, sodass andere Personen die Darstellung nicht sehen k&ouml;nnen.</p>
<p class="p6"><a href="http://www.kura.tech" target="_blank" rel="noopener noreferrer">www.kura.tech</a></p>
<h2 class="p2"><span class="s1"><b>Bandbreite f&uuml;rs Gehirn</b></span></h2>
<p class="p3">Paradromics bringt eine Gehirn-Computer-Schnittstelle mit hoher Datenrate auf den Markt. Die erste Anwendung des Interface ist ein BCI-f&auml;higes Kommunikationshilfsmittel f&uuml;r schwer motorisch eingeschr&auml;nkte Menschen. Kortikale Module zeichnen dabei Signale von mehr als 1.600&nbsp;einzelnen Neuronen auf; ein kranialer Hub versorgt die kortikalen Module mit Strom und vervollst&auml;ndigt die Signalverarbeitung.</p>
<p class="p4"><a href="http://www.kura.tech" target="_blank" rel="noopener noreferrer">www.paradromics.com</a></p>
<h2 class="p7"><span class="s1"><b>Sprachbasierte HMI</b></span></h2>
<p class="p3">Linguwerk hat eine Spracherkennung speziell f&uuml;r eine intuitive Mensch-Maschine-Kommunikation entwickelt. Die L&ouml;sung bindet neben Spracherkennung und Sprachausgabe auch eine Vielzahl anderer Ein- und Ausgabemodalit&auml;ten in das HMI-Verhalten der Maschine, des Ger&auml;tes oder des Assistenten ein. Mit einem individuell konfigurierbaren Wakeword kann das Sprachinterface ber&uuml;hrungslos und verl&auml;sslich aktiviert werden.</p>
<p class="p4"><a href="http://www.linguwerk.de" target="_blank" rel="noopener noreferrer">www.linguwerk.de</a></p>
<p>The post <a href="https://future-markets-magazine.com/de/innovators/spannende-human-machine-interfaces-start-ups/">Spannende Human Machine Interfaces Start-ups</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Der Erfinder der Computermaus</title>
		<link>https://future-markets-magazine.com/de/innovators/der-erfinder-der-computermaus/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Thu, 11 Jan 2024 10:35:35 +0000</pubDate>
				<category><![CDATA[Human Machine Interfaces]]></category>
		<category><![CDATA[Innovators]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11870</guid>

					<description><![CDATA[<p>Seine zahlreichen technologischen Innovationen waren entscheidend für die Entwicklung des Personal Computings. Die Arbeit von Douglas&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/innovators/der-erfinder-der-computermaus/">Der Erfinder der Computermaus</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Seine zahlreichen technologischen Innovationen waren<span class="Apple-converted-space">&nbsp;</span>entscheidend f&uuml;r die Entwicklung des Personal Computings. Die Arbeit von Douglas Engelbart trug dazu bei, Computer f&uuml;r jedermann bedienbar zu machen.</b></span></p>
<p class="p1"><span class="s1">E</span><span class="s1">s war im Dezember 1968. Ein bis dato unbekannter Wissenschaftler vom Stanford Research Institute trat vor eine schweigende Menge in San Francisco&nbsp;&ndash; und begann mit dem, was als &bdquo;Mutter aller Pr&auml;sentationen&ldquo; in die Geschichte einging: In seinem 90-min&uuml;tigen Vortrag stellte er praktisch alles vor, was die moderne Computertechnik Jahre sp&auml;ter ausmachen sollte: Videokonferenzen, Hyperlinks, vernetzte Zusammenarbeit, digitale Textbearbeitung&nbsp;&ndash; und etwas, das &bdquo;Maus&ldquo; genannt wurde.</span></p>
<h2 class="p3"><span class="s1"><b>Die Welt von morgen</b></span></h2>
<p class="p2">Der Wissenschaftler, der dem staunenden Publikum das Potenzial der Zusammenarbeit mit Computern demonstrierte, war Douglas&nbsp;Engelbart. Kein Computer-Spezialist, sondern Ingenieur und passionierter Erfinder. &bdquo;Damals dachten die meisten Menschen, dass Computer nur zum Rechnen da sind&nbsp;&ndash; gro&szlig;e Gehirne zum Knacken von Zahlen. Das Konzept der interaktiven Datenverarbeitung war ihnen fremd&ldquo;, erinnerte er sich Jahre sp&auml;ter. &bdquo;Es war f&uuml;r die Leute schwer zu verstehen, was wir in meinem Labor, dem Augmentation Research Center am SRI in Menlo Park, machten. Ich wollte also zeigen, welche Flexibilit&auml;t ein Computer bieten kann: die Welt von morgen.&ldquo;</p>
<h2 class="p3"><span class="s1"><b>Vision&auml;rer Ingenieur</b></span></h2>
<p class="p2"><span class="s1">Engelbart (1925&nbsp;&ndash; 2013) schloss 1942 die Highschool ab und studierte anschlie&szlig;end Elektrotechnik an der Oregon State University. W&auml;hrend des Zweiten Weltkriegs war er als <a href="https://future-markets-magazine.com/de/encyclopedia/radar/" target="_blank" title="Radio Detection and Ranging Erkennungs- und Ortungsverfahren auf der Basis elektromagnetischer Wellen im Radiofrequenzbereich." class="encyclopedia">Radar</a>techniker t&auml;tig. Im Jahr 1948 erhielt er seinen Bachelor und arbeitete f&uuml;r das NACA Ames Laboratory (Vorl&auml;ufer der NASA). Anschlie&szlig;end bewarb er sich f&uuml;r das Graduiertenprogramm in Elektrotechnik an der University of California, Berkeley, und promovierte 1955. Ein Jahr sp&auml;ter verlie&szlig; er die Universit&auml;t, um f&uuml;r das Stanford Research Institute (SRI) zu arbeiten.</span></p>
<p class="p2"><span class="s1">Am SRI erwarb Engelbart innerhalb von zwei Jahren ein Dutzend Patente und arbeitete an magnetischen Computerkomponenten, grundlegenden Ph&auml;nomenen digitaler Ger&auml;te und dem Skalierungspotenzial der Miniaturisierung. Im Jahr 1962 ver&ouml;ffentlichte er sein vision&auml;res Werk &bdquo;Augmenting Human Intellect: A Conceptual Framework&ldquo;. Darin skizzierte er seine Ideen f&uuml;r den Einsatz von Computern zur Erg&auml;nzung der menschlichen Intelligenz. Seine Motivation f&uuml;r seine Entwicklungen formulierte Douglas Engelbart einmal folgenderma&szlig;en: &bdquo;Die Komplexit&auml;t der Probleme, vor denen die Menschheit steht, w&auml;chst schneller als unsere F&auml;higkeit, sie zu l&ouml;sen.&ldquo; </span></p>
<h2 class="p3"><span class="s1"><b>Die menschlichen F&auml;higkeiten erweitern</b></span></h2>
<p class="p2"><span class="s1">Engelbart wollte daher technologische Innovationen nutzen, um die F&auml;higkeiten des Menschen zu erweitern. Sein Ziel war es nicht, dass Menschen dank der Technik weniger zu tun haben, sondern dass sie mithilfe der Technik mehr leisten k&ouml;nnen. Besonders im Computer sah er ein geeignetes Medium, um den Intellekt des Menschen zu unterst&uuml;tzen und so zu bef&auml;higen, auch hochkomplexe Probleme schneller zu l&ouml;sen. Ein Beispiel f&uuml;r diese Erweiterung des menschlichen Intellekts ist die &bdquo;X-Y Positionsanzeige f&uuml;r ein Anzeigesystem&ldquo;, die eine direkte Manipulation von Elementen auf dem Bildschirm erm&ouml;glichte. &bdquo;Ich habe 1961 angefangen, Notizen f&uuml;r die Maus zu machen. Zu dieser Zeit war ein Lichtstift das gebr&auml;uchlichste Ger&auml;t, um etwas auf dem Bildschirm zu zeigen. Dieser Stift wurde w&auml;hrend des Krieges f&uuml;r <a href="https://future-markets-magazine.com/de/encyclopedia/radar/" target="_blank" title="Radio Detection and Ranging Erkennungs- und Ortungsverfahren auf der Basis elektromagnetischer Wellen im Radiofrequenzbereich." class="encyclopedia">Radar</a>ger&auml;te entwickelt. Das war die Standardmethode zum Navigieren, aber ich fand sie nicht besonders gut.&ldquo; Wer auf den Begriff &bdquo;Maus&ldquo; f&uuml;r das neuartige Bedienger&auml;t gekommen war, wusste Douglas Engelbart sp&auml;ter nicht mehr. &bdquo;Es sah halt irgendwie aus wie eine Maus: ein K&auml;stchen, noch aus Holz gefertigt, mit einem Kabel an einem Ende. Oben ein roter Knopf zum Klicken und unten zwei R&auml;dchen, die Bewegungsimpulse &uuml;bertrugen.&ldquo; </span></p>
<h2 class="p3"><span class="s1"><b>Teil eines viel gr&ouml;&szlig;eren Projekts</b></span></h2>
<p class="p2">&bdquo;Die Maus war nur ein winziger Teil eines viel gr&ouml;&szlig;eren Projekts, das darauf abzielte, den menschlichen Intellekt zu verbessern&ldquo;, so Engelbart. Denn dieses so rudiment&auml;r erscheinende Ger&auml;t erleichterte die Bedienung einer grafischen Benutzeroberfl&auml;che erheblich&nbsp;&ndash; auch das eine Entwicklung von Douglas Engelbart und seinem Team. Eine <a href="https://future-markets-magazine.com/de/encyclopedia/grafische-benutzeroberflaeche-gui/" target="_blank" title="Eine Benutzeroberfl&auml;che, die Informationen grafisch darstellt, normalerweise mit verschiebbaren Fenstern, Schaltfl&auml;chen und Symbolen." class="encyclopedia">grafische Benutzeroberfl&auml;che (GUI)</a> verwendet visuelle Elemente wie Fenster, Schaltfl&auml;chen und Men&uuml;s, &uuml;ber die der Nutzer mit der Software interagieren kann. Urspr&uuml;nglich bestanden Computer nur aus Textbl&ouml;cken und es waren umfangreiche Kenntnisse in der Programmierung und Computerschnittstellen erforderlich, um sie zu bedienen.</p>
<h2 class="p3"><span class="s1"><b>Grundlage f&uuml;r Apples Erfolg</b></span></h2>
<p class="p2"><span class="s1">Doch Engelbart war seiner Zeit wohl zu weit voraus, die Pr&auml;sentation auf der Fall Joint Computer Conference und die Tragweite seiner Erfindungen gerieten schnell in Vergessenheit. Engelbart gelang es nicht, das SRI, Investoren oder andere potenzielle Geldgeber von seiner Vision zu &uuml;berzeugen. Erst 1980 schloss er einen Lizenzvertrag mit den beiden <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>le-Gr&uuml;ndern Steve Jobs und Steve Wozniak &uuml;ber das Patent der Maus ab&nbsp;&ndash; 40.000&nbsp;US-Dollar erhielt er daf&uuml;r. Vier Jahre sp&auml;ter stellte <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>le den &bdquo;Macintosh&ldquo; vor, der auf Ideen Engelbarts basiert: mit Maus und grafischer Benutzeroberfl&auml;che. Heute ist Engelbarts Vision eines Computers f&uuml;r jedermann l&auml;ngst Wirklichkeit geworden. Als er im Jahr 2013 stirbt, ehrt ihn <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>le-Gr&uuml;nder Wozniak mit den Worten: &bdquo;Alles, was wir in Computern haben, l&auml;sst sich auf sein Denken zur&uuml;ckf&uuml;hren. F&uuml;r mich ist er ein Gott. Er wird f&uuml;r die Maus anerkannt, aber er hat wirklich eine Menge unglaublicher Dinge f&uuml;r Computerschnittstellen und Netzwerke getan.&ldquo;</span></p>
<p>The post <a href="https://future-markets-magazine.com/de/innovators/der-erfinder-der-computermaus/">Der Erfinder der Computermaus</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Künstliche Intelligenz in HMI-Lösungen</title>
		<link>https://future-markets-magazine.com/de/innovators/kuenstliche-intelligenz-in-hmi-loesungen/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Thu, 11 Jan 2024 10:00:31 +0000</pubDate>
				<category><![CDATA[Human Machine Interfaces]]></category>
		<category><![CDATA[Innovators]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11854</guid>

					<description><![CDATA[<p>Karl Lehnhoff, Director Segment Industrial, Scientific &#38; Medical bei EBV Elektronik, zu Trends im Bereich der&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/innovators/kuenstliche-intelligenz-in-hmi-loesungen/">Künstliche Intelligenz in HMI-Lösungen</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1"><span class="s1"><b>Karl Lehnhoff, Director Segment Industrial, Scientific &amp; </b></span><b>Medical bei EBV&nbsp;Elektronik</b><span class="s1"><b>, zu Trends im Bereich der Human Machine Interfaces.</b></span></p>
<p class="p1"><span class="s1">U</span><span class="s1">nser Alltag ist heute von Technik durchdrungen. Mit der Komplexit&auml;t der Technologien, die uns t&auml;glich umgeben, nimmt auch der Bedarf an Mensch-Maschine-Schnittstellen zu, die eine m&ouml;glichst positive User Experience bieten. Dabei werden die Interaktionsm&ouml;glichkeiten immer vielf&auml;ltiger: Die Palette an HMI-L&ouml;sungen reicht vom Push-Button &uuml;ber Multi-Touch-Bildschirme bis hin zu Sprach- und Gestensteuerung. Diese Bandbreite ist etwas, das Karl Lehnhoff besonders fasziniert</span>.</p>
<p class="p3"><span class="s1"><b>Ein Lichtschalter, eine Computermaus, ein </b></span><span class="s2"><b>Neuroimplantat zur Steuerung einer </b></span><b>Prothese&nbsp;&ndash; was davon ist f&uuml;r Sie eine Mensch-</b><span class="s1"><b>Maschine-Schnittstelle?</b></span></p>
<p class="p2"><span class="s3"><b>Karl Lehnhoff:</b> </span><span class="s4">Das ist leicht zu beantworten&nbsp;&ndash; alle. Schalter sind eine Basis-HMI. Aber auch andere Dinge wie eine Computermaus, sind ganz klar Mensch-Maschine-Schnittstellen. Nat&uuml;rlich gibt es daneben Hightechger&auml;te wie Brain Machine Interfaces. Sie stellen die aktuell fortschrittlichste Variante einer HMI dar.</span></p>
<p class="p3"><span class="s2"><b>Welche Technologien zur Mensch-Maschine-Interaktion sind denn aktuell besonders gefragt?</b></span></p>
<p class="p2"><span class="s5"><b>K.&thinsp;L.:</b></span><span class="s1"> Fangen wir mit dem Klassiker an, den Schaltern. Wir benutzen sie &uuml;berall. Und wir werden sie auch in Zukunft verwenden. Auf der anderen Seite benutzen wir immer mehr <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s, angefangen beim Smartphone bis hin zum Auto. Zuk&uuml;nftig werden wir dabei mehr haptisches Feedback integrieren. Was sich zudem immer mehr durchsetzt, ist die Spracherkennung. Wir nutzen sie bereits mit Smartphones oder mit Alexa und Siri im Smart Home. Sie wird in Zukunft auch in anderen Anwendungen zum Einsatz kommen, zum Beispiel in der industriellen Produktion. Au&szlig;erdem wird immer &ouml;fters die Gestensteuerung eingesetzt.</span></p>
<p class="p2"><span class="s4">Zum Bereich der HMI geh&ouml;ren aber auch L&ouml;sungen zur biometrischen <a href="https://future-markets-magazine.com/de/encyclopedia/authentifizierung/" target="_blank" title="Stellt sicher, dass der Kommunikationspartner auch derjenige ist, f&uuml;r den er sich ausgibt." class="encyclopedia">Authentifizierung</a>. Gesichtserkennung bei Telefonen oder anderen Anwendungen, Fingerabdruckscanner oder Iris-Scanner. </span></p>
<p class="p2">Was ich zudem spannend finde, sind Augmented und Virtual Reality. Auf der diesj&auml;hrigen Hannover-Messe habe ich mir zum Beispiel eine L&ouml;sung angeschaut, bei der &uuml;ber Smart Glasses ein Roboter f&uuml;r den Logistikbereich gesteuert wird.</p>
<p class="p3"><span class="s1"><b><a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s werden aktuell fast &uuml;berall verwendet&nbsp;&ndash; wo geht die Entwicklung hin? </b></span></p>
<p class="p2"><span class="s5"><b>K.&thinsp;L.:</b></span><span class="s1"> <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s haben wir heute tats&auml;chlich &uuml;berall und sie werden kontinuierlich weiterentwickelt. Wir sehen bereits 3D-<a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s und die M&ouml;glichkeit, haptisches Feedback zu integrieren. In Zukunft werden <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s zudem mit anderen HMI-Technologien wie Gestensteuerung kombiniert.</span></p>
<p class="p3"><span class="s1"><b>Wie kann denn haptisches Feedback in einen <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a> integriert werden?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Typischerweise wird heute ein Motor oder ein piezoelektrischer <a href="https://future-markets-magazine.com/de/encyclopedia/aktor/" target="_blank" title="Komponenten, die elektronische Signale in mechanische Bewegung oder andere physikalische Gr&ouml;&szlig;en, zum Beispiel Druck oder&hellip;" class="encyclopedia">Aktor</a> verwendet, der eine f&uuml;hlbare R&uuml;ckmeldung gibt. Es gibt auch Displays, die &uuml;ber taktile R&uuml;ckkopplungsschichten verf&uuml;gen. Sie &bdquo;erzeugen&ldquo; Kn&ouml;pfe unter dem Display, sodass man sp&uuml;ren kann, wenn man sie dr&uuml;ckt. Feedback ist nicht nur bei <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s relevant, sondern auch bei anderen Anwendungen, wo Kn&ouml;pfe hinter Glas Feedback erm&ouml;glichen. Auch hier wird oft ein Motor verwendet, um eine mechanische R&uuml;ckmeldung zu geben. Das ist sogar m&ouml;glich, wenn der Bediener Handschuhe tr&auml;gt&nbsp;&ndash; dann muss allerdings die Feedback-Kraft gr&ouml;&szlig;er sein und vielleicht in einem Bereich von 1 oder 2G liegen, sonst sp&uuml;rt man das nicht durch den Handschuh.</p>
<p class="p3"><span class="s1"><b>Wird heute &uuml;ber HMI gesprochen, kommt man an KI kaum vorbei. Neben dem Einsatz bei der Sprach- und Gestenerkennung&nbsp;&ndash; welche Rolle spielt KI bei HMI? </b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Nicht immer erkennen wir es, aber wir nutzen heute schon eine Menge KI. Beim Smartphone, bei der Sprach- oder Gesichtserkennung. In der Bildverarbeitung wird sie oft eingesetzt. In Zukunft geht es zum Beispiel bei der Spracherkennung darum, das Sprachverst&auml;ndnis zu verbessern und mehr W&ouml;rter zu erkennen. KI wird auch bei Gehirn-Computer-Schnittstellen, bei Virtual und <a href="https://future-markets-magazine.com/de/encyclopedia/augmented-reality/" target="_blank" title="Die erweiterte Realit&auml;t ist eine Kombination aus wahrgenommener und vom Computer erzeugter Realit&auml;t. Der Anwender&hellip;" class="encyclopedia">Augmented Reality</a> oder f&uuml;r vorausschauende Analysen ben&ouml;tigt. Dabei wird auch das Maschinelle Lernen eine immer gr&ouml;&szlig;ere Rolle spielen. Denn damit kann das Ger&auml;t selbst weiter lernen, sich vielleicht selbst ein neues Wort beibringen.</p>
<p class="p3"><span class="s1"><b>was bleibt der Schl&uuml;ssel zu einem<span class="Apple-converted-space">&nbsp;</span>idealen Benutzererlebnis?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Einer der wichtigsten Punkte ist die Erkennungsgenauigkeit. Ich erlebe das jeden Tag bei meinem Auto&nbsp;&ndash; manche W&ouml;rter versteht es, manche nicht. Wir m&uuml;ssen also eine hohe Genauigkeit und Zuverl&auml;ssigkeit haben. Hier kann KI helfen. Aber es gibt noch eine Menge andere Kriterien f&uuml;r eine gute HMI: <a href="https://future-markets-magazine.com/de/encyclopedia/datenschutz/" target="_blank" title="Bewahrt die schutzw&uuml;rdigen Belange von nat&uuml;rlichen Personen und juristischen Institutionen vor Missbrauch durch elektronische Medien." class="encyclopedia">Datenschutz</a>, Feedback, der Umgang mit Fehlern. Aber die wichtigsten Punkte f&uuml;r mich sind Zuverl&auml;ssigkeit und Genauigkeit.</p>
<p class="p3"><span class="s1"><b>Bei der Bandbreite an Technologien&nbsp;&ndash; wie kann EBV Elektronik bei der Realisierung einer HMI helfen?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Wir sind einer der f&uuml;hrenden Spezialisten f&uuml;r Halbleiter. Wir k&ouml;nnen also bei der Auswahl passender Technologie helfen. Auch beim Thema &bdquo;Software&ldquo; k&ouml;nnen wir Kunden beraten. Daf&uuml;r haben wir unsere Segmentstruktur mit den verschiedenen Markt- und Technologiesegmenten. Das spiegelt sich auch im Feld wider, mit unseren Field-<a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>lication-Engineers f&uuml;r Technologien und Systeme. Und auch bei der Produktion, beim Lieferkettenmanagement und all den anderen Dingen, die n&ouml;tig sind, um ein Produkt auf den Markt zu bringen, k&ouml;nnen wir unterst&uuml;tzen.</p>
<p class="p3"><span class="s1"><b>Arbeiten Sie dabei auch mit Ihren &bdquo;Schwesterunternehmen&ldquo; aus dem Avnet-Konzern zusammen? Wie profitiert der Kunde davon?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Das tun wir, zum Beispiel liefert unsere Schwesterfirma Avnet Abacus Verbindungstechnik, passive Bauelemente und Elektromechanik. Damit k&ouml;nnen wir also die komplette St&uuml;ckliste abdecken. Avnet Embedded bietet komplette L&ouml;sungen f&uuml;r Kundenanwendungen. Sie &uuml;bernehmen die Entwicklung, auch die Produktion und k&ouml;nnen dabei in einer breiten Palette von Anwendungen arbeiten. Und dann haben wir noch unseren Software-Spezialisten Witekio, der die komplette Entwicklung von der unteren Software-Ebene bis hin zu Embedded <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>likationen und Konnektivit&auml;t abdeckt. Wir als EBV sind schlie&szlig;lich ein Full-Service-Partner. Damit hat der Kunde nur eine Anlaufstelle, &uuml;ber die er alle Informationen und den gesamten Service erh&auml;lt.</p>
<p class="p3"><span class="s2"><b>Was bedeuten die aktuellen Entwicklungen im Bereich der HMI aus Sicht der Halbleiterindustrie?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Wir erkennen deutlich den Trend weg vom Mikrocontroller, hin zum Mikroprozessor. Das hat viel mit den zunehmenden Funktionalit&auml;ten des <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s zu tun. Dieser Trend &uuml;bertr&auml;gt sich nun auch auf die anderen Anwendungen. Das Display selbst wird immer komplexer. Das kann mit Mikrocontrollern nicht mehr erf&uuml;llt werden. Also kommt es in Zukunft auf leistungsf&auml;higere Mikroprozessoren an. Nat&uuml;rlich braucht man auch mehr Rechenleistung f&uuml;r die immer h&auml;ufiger eingesetzte K&uuml;nstliche Intelligenz. Und auch f&uuml;r den 3D-<a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a> braucht man in Zukunft leistungsf&auml;higere Prozessoren als in der Vergangenheit.</p>
<p class="p3"><span class="s1"><b>Welche Entwicklungen im Bereich HMI finden Sie aktuell besonders spannend&nbsp;&ndash; und warum?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Die Sprach- und Gestenerkennung, denn sie erm&ouml;glicht eine nat&uuml;rliche Interaktion wie mit einem Menschen. Sie ist in vielen Situationen hilfreich, beim Autofahren genauso wie in der Industrie. Der Schl&uuml;ssel zu alldem wird aber die K&uuml;nstliche Intelligenz sein.</p>
<p class="p3"><span class="s1"><b>Was glauben Sie: Werden wir in Zukunft Maschinen allein mit unseren Gedanken steuern k&ouml;nnen?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Das ist schwer zu sagen. Aber aus medizinischer Sicht ist das ein sehr interessantes Gebiet. Ich hoffe, wir werden dadurch Menschen helfen k&ouml;nnen, besser mit ihren k&ouml;rperlichen Einschr&auml;nkungen zu leben.</p>
<p class="p3"><span class="s1"><b>Und verstehen Sie die &Auml;ngste vieler Menschen, wenn Sie an einen Chip in ihrem Gehirn denken?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> Auf der einen Seite verstehe ich die &Auml;ngste, aber ich glaube, das ist auch eine Frage der pers&ouml;nlichen Situation. Wer eingeschr&auml;nkt ist und wem so ein Chip im t&auml;glichen Leben hilft, wird eher den Nutzen sehen. Menschen, die nicht darauf angewiesen sind, werden eher das Risiko sehen.</p>
<p class="p3"><span class="s1"><b>Zum Abschluss: Was fasziniert Sie besonders am Thema HMI?</b></span></p>
<p class="p2"><span class="s6"><b>K.&thinsp;L.:</b></span> F&uuml;r mich ist das Faszinierende, dass das Feld so breit ist. Beginnend beim Ein-/Aus-Schalter &uuml;ber <a href="https://future-markets-magazine.com/de/encyclopedia/touchscreen/" target="_blank" title="Ber&uuml;hrungssensitive Bildschirmoberfl&auml;che, bei der &uuml;ber Ber&uuml;hren zum Beispiel eine Software bedient werden kann." class="encyclopedia">Touchscreen</a>s und Spracherkennung bis hin zum Brain-Computer-Interface. Und nach den HMI, die wir heute haben, wird wieder etwas Neues kommen. Wie es aussehen wird, wei&szlig; ich nicht. Aber Menschen investieren Zeit in Forschung und Entwicklung und versuchen, neue Wege zu gehen. Das gef&auml;llt mir.</p>
<p>The post <a href="https://future-markets-magazine.com/de/innovators/kuenstliche-intelligenz-in-hmi-loesungen/">Künstliche Intelligenz in HMI-Lösungen</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Auf dem Weg zum vorausschauenden Roboter</title>
		<link>https://future-markets-magazine.com/de/innovators/auf-dem-weg-zum-vorausschauenden-roboter/</link>
		
		<dc:creator><![CDATA[The Quintessence]]></dc:creator>
		<pubDate>Fri, 05 Jan 2024 11:03:09 +0000</pubDate>
				<category><![CDATA[Aktuelle Ausgabe]]></category>
		<category><![CDATA[Human Machine Interfaces]]></category>
		<category><![CDATA[Innovators]]></category>
		<guid isPermaLink="false">https://future-markets-magazine.com/?p=11491</guid>

					<description><![CDATA[<p>Eine der größten Herausforderungen bei Mensch-Maschine-Schnittstellen ist die natürliche Interaktion. Mit Lösungen wie einer Gesten-&#8230;</p>
<p>The post <a href="https://future-markets-magazine.com/de/innovators/auf-dem-weg-zum-vorausschauenden-roboter/">Auf dem Weg zum vorausschauenden Roboter</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p class="p1">Eine der gr&ouml;&szlig;ten Herausforderungen bei Mensch-Maschine-Schnittstellen ist die nat&uuml;rliche Interaktion. Mit L&ouml;sungen wie einer Gesten- und Sprachsteuerung hat die Technik dabei schon gro&szlig;e Fortschritte erzielt. In letzter Zeit richtet sich der Fokus zudem auf die Steuerung von Maschinen per Gedanken: Brain Machine Interfaces messen die elektrische Aktivit&auml;t des Gehirns (Elektroenzephalographie, EEG) und leiten daraus Steuerbefehle f&uuml;r Computer, Maschinen oder Roboter ab. Einer der Pioniere in der Nutzung von EEG-Daten f&uuml;r die Interaktion mit robotischen Systemen ist das DFKI. Hier l&auml;uft aktuell das<span class="Apple-converted-space">&nbsp;</span>Forschungsprojekt EXPECT, dessen Hauptziel die Entwicklung einer adaptiven, selbstlernenden Plattform f&uuml;r Mensch-Roboter-Kollaboration ist. Sie soll nicht nur verschiedenste Arten der aktiven Interaktion erm&ouml;glichen, sondern auch in der Lage sein, aus Gestik, Sprache, Augenbewegungen und Gehirnaktivit&auml;t die Intention des Menschen abzuleiten&nbsp;&ndash; die Maschine soll also erahnen k&ouml;nnen, was der Mensch als N&auml;chstes vorhat. Prof. Dr. Elsa Andrea Kirchner, EXPECT-Projektleiterin f&uuml;r den Forschungsbereich Robotics Innovation Center, gibt Einblicke in das Projekt und in den Stand der Forschung rund um Brain Machine Interfaces (BMI).</p>
<p class="p3"><span class="s1"><b>Mit dem Chip im Gehirn Maschinen steuern&nbsp;&ndash; </b></span><span class="s2"><b>das wird bereits von Firmen wie Neuralink und Synchron getestet. Ist das tats&auml;chlich die Zukunft von Human Machine Interfaces?</b></span></p>
<p class="p2"><span class="s3"><b>Elsa Andrea Kirchner:</b></span> Das Problem bei der Interaktion mit dem Gehirn &uuml;ber implantierte Chips ist, dass man nur den Teil des Gehirns erreichen kann, in dem sich der Chip befindet. Man m&uuml;sste viele dieser Chips implantieren, um ein gutes Bild davon zu bekommen, was das Gehirn tut. F&uuml;r einige Zwecke ist das Verfahren sicherlich n&uuml;tzlich, zum Beispiel zur Stimulation des Gehirns bei Parkinson.</p>
<p class="p3"><span class="s2"><b>Was ist die Alternative?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> Man kann die Hirnaktivit&auml;t auch von au&szlig;en messen, &uuml;ber Elektroden, die am Kopf angebracht werden. Allerdings misst man dabei immer eine Summe von Aktivit&auml;ten, sodass die Aufl&ouml;sung geringer ist als bei einer implantierten Elektrode. Zudem hat man mehr Rauschen, weil die Gehirnstr&ouml;me durch Haut, Knochen und Haare hindurch gemessen werden. Deshalb sind die Daten viel schwieriger zu interpretieren. Man braucht also sehr gute Ger&auml;te, um sie aufzuzeichnen, und man braucht eine gute Signalverarbeitung und Maschinelles Lernen, um diese Daten richtig zu interpretieren.</p>
<p class="p3"><span class="s2"><b>Wie genau sieht Ihr Ansatz beim EXPECT-Projekt aus?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> Ziemlich oft sehen wir bei der Interaktion einer anderen Person an, was sie tun will oder was sie von mir erwartet. Ein Kollege &uuml;bergibt mir zum Beispiel ein Werkzeug, weil ich darauf schaue und er gerade danebensteht. Und das ist etwas, was man auch bei der Interaktion mit Maschinen erreichen will. Man will einer Maschine nicht immer explizit jeden einzelnen Schritt sagen, sondern, dass die Maschine das von selbst versteht. Daf&uuml;r kann man viele Wege nutzen. Und einer dieser Wege ist die direkte Nutzung der Gehirnaktivit&auml;t.</p>
<p class="p3"><span class="s1"><b>Denkt tats&auml;chlich jeder Mensch gleich? Zeigt also ein EEG immer das gleiche, egal<span class="Apple-converted-space">&nbsp;</span>welcher Mensch den Gedanken hat: &bdquo;Roboter, &ouml;ffne den Greifer&ldquo;?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> Unsere Gehirne sind sehr &auml;hnlich organisiert. Man hat also die gleichen Bereiche an &auml;hnlichen Stellen. Aber wir wissen auch, dass es gro&szlig;e Unterschiede zwischen den Menschen gibt. Wenn man also die &uuml;ber ein EEG gemessene Gehirnaktivit&auml;t einer Person mithilfe von Maschinellem Lernen analysiert hat, bedeutet das nicht, dass man das trainierte Modell einfach auf eine andere Person &uuml;bertragen kann. Dann sinkt die Leistung vielleicht um 20 oder 30&nbsp;Prozent. Daher haben wir einige Herausforderungen, wie wir Modelle trainieren k&ouml;nnen, die auf viele Personen passen. Dies ist eines der Ziele des Projekts EXPECT.</p>
<p class="p3"><span class="s2"><b>Ihre Plattform f&uuml;r die Mensch-Roboter-Kollaboration setzt aber nicht nur auf Gedanken, sondern soll die verschiedensten Arten der aktiven Interaktion erm&ouml;glichen. Warum?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> Stellen Sie sich eine Schlaganfallpatientin vor, die zum Beispiel nicht in der Lage ist, den rechten Arm zu bewegen. Auch bei ihr gibt es eine gewisse Planung der Bewegung im Gehirn. Die k&ouml;nnen wir erkennen und den Arm mithilfe eines Exoskeletts bewegen. Allerdings haben wir dabei ein paar Probleme. Zun&auml;chst einmal sind wir beim Interpretieren nicht zu 100&nbsp;Prozent korrekt. Das zweite Problem ist, dass wenn ein Mensch an eine K&ouml;rperbewegung denkt, er sie nicht unbedingt ausf&uuml;hren will.</p>
<p class="p2">Die meisten Patienten haben selbst nach einem Schlaganfall noch einige winzige Muskelaktivit&auml;ten. Die kann man nutzen: Man interpretiert zun&auml;chst das EEG und erkennt, dass die Patientin an eine Bewegung denkt. Gleichzeitig &uuml;berwacht man die Muskeln&nbsp;&ndash; wird dabei eine Aktivit&auml;t erkannt, wei&szlig; man, dass sie die Bewegung wirklich ausf&uuml;hren will.</p>
<p class="p2">Diese Kombination verschiedener Signale ist sehr wichtig, denn wenn ein Exoskelett pl&ouml;tzlich den Arm bewegt, ohne dass man es wirklich wollte, hat man das Gef&uuml;hl, seine Handlungsf&auml;higkeit verloren zu haben und dass das Exoskelett den Willen &uuml;bernommen hat.</p>
<p class="p3"><span class="s2"><b>In welchen F&auml;llen macht es dar&uuml;ber hinaus Sinn, verschiedene Interaktionsm&ouml;glichkeiten zu nutzen?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> Nehmen Sie zum Beispiel die Spracherkennung. Oft ist die Umgebung daf&uuml;r zu laut. In unseren Projekten arbeiten Kollegen an der Kombination von EEG und Sprache, um sicherzustellen, dass die gesprochene Sprache richtig erkannt wird. Gleichzeitig kann uns die Spracherkennung auch dabei helfen, das EEG besser zu interpretieren. In der Trainingsphase spricht man dann zum Beispiel aus: &bdquo;Bitte hol den Hammer&ldquo;. Gleichzeitig wird dabei das EEG gemessen. Und sp&auml;ter denkt man das nur noch und der Roboter wird es anhand der Gehirnaktivit&auml;t verstehen.</p>
<p class="p3"><span class="s4"><b>Hauptziel Ihres Projekts ist es, dass die Maschine die Intention des Menschen vorausahnen kann. Bei welchen <a href="https://future-markets-magazine.com/de/encyclopedia/app/" target="_blank" title="Kurzform f&uuml;r Applikation oder Anwendung; Anwendungssoftware f&uuml;r Smartphone, Tablet oder andere tragbare elektronische Ger&auml;te." class="encyclopedia">App</a>likationen macht das Sinn?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> Manchmal arbeitet man mit Menschen zusammen, die schon bevor man ihnen etwas sagt, wissen, was sie tun sollen. Das empfinden wir als besonders positiv. Gleiches gilt auch bei der Zusammenarbeit mit einer Maschine&nbsp;&ndash; es gibt Situationen, in denen es besser w&auml;re, wenn das System meine Absicht kennen w&uuml;rde.</p>
<p class="p2">Stellen Sie sich vor, Sie tragen ein Exoskelett und versuchen, irgendetwas &uuml;ber Kopf zu reparieren. Dann unterst&uuml;tzt das Exoskelett sie und h&auml;lt den Arm aktiv hoch. Das ist erst mal gut. Aber dann ist man irgendwann fertig und will den Arm wieder senken. Die Sensoren erkennen das zwar, aber f&uuml;r einen Moment muss man dennoch gegen das Exoskelett arbeiten. Wenn wir dagegen die Planung der Armbewegungen im Gehirn erkennen k&ouml;nnen, kann sich das System darauf vorbereiten und schneller reagieren. Das haben wir bereits in der Praxis mit Personen getestet. Sie konnten die Unterschiede wirklich sp&uuml;ren.</p>
<p class="p3"><span class="s2"><b>Wie genau funktioniert das?</b></span></p>
<p class="p2"><span class="s5"><b>E.&thinsp;A.&thinsp;K.:</b></span><span class="s2"> Wir k&ouml;nnen in das Gehirn schauen und die Zeitspanne untersuchen, in der das Gehirn die Bewegung plant, bevor ein Signal an die Muskeln gesendet wird. Das kann bis zu 1,5&nbsp;Sekunden dauern, manchmal sogar l&auml;nger. Wir k&ouml;nnen in diese Vorbereitungsphase hineinschauen und erkennen, dass der Mensch sich bewegen will. Und das geht nur &uuml;ber die Gehirnsignale, nicht &uuml;ber Gesten, Muskelaktivit&auml;t, Augenbewegungen oder Sprache</span>.</p>
<p class="p3"><span class="s2"><b>Wie weit sind Sie dabei in Ihrem Forschungsprojekt aktuell? </b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span><span class="s2"> Im Rahmen des EXPECT-Projekts konzentrieren wir uns auf die M&ouml;glichkeiten, wie man auf multimodalen Daten trainieren kann, wie man sie nutzen kann. Zum Beispiel, um zwischen Signalen umzuschalten, wenn die Qualit&auml;t eines Signals nachl&auml;sst. Es geht also nicht um den allgemeinen Ansatz, sondern eher darum, wie wir verschiedene Methoden einsetzen k&ouml;nnen, um uns an ver&auml;nderte Signalqualit&auml;ten anzupassen.</span></p>
<p class="p2">So k&ouml;nnen wir mit anderen Signalen trainieren, als wir sp&auml;ter verwenden. Wenn zum Beispiel bei einem Patienten die Muskelaktivit&auml;t am Anfang nicht zuverl&auml;ssig ist, dann k&ouml;nnen wir zum Trainieren das EEG nutzen und sp&auml;ter die Muskelaktivit&auml;t und das Eye-Tracking verwenden, um die Leistung zu verbessern und zu steigern.</p>
<p class="p3"><span class="s2"><b>Sie nutzen unter anderem Gestik, Sprache, Augenbewegungen und Gehirnaktivit&auml;t&nbsp;&ndash; gibt es eine Technologie, die in Zukunft besonders dominierend sein wird?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> <span class="s2">Das ist eine schwer zu beantwortende Frage. Es kommt ein bisschen darauf an, wie und was man kommunizieren m&ouml;chte. Aber das BCI ist f&uuml;r die Zukunft besser geeignet als die anderen Systeme. Ich glaube aber vor allem, dass sich die Qualit&auml;t der Schnittstellen so ver&auml;ndern wird, dass sie unsere Bed&uuml;rfnisse viel nat&uuml;rlicher erf&uuml;llen. Am besten w&auml;re es, wenn man eine Schnittstelle nicht sehen, sp&uuml;ren und bemerken w&uuml;rde. Und ich glaube an multimodale Schnittstellen, denn so kommunizieren wir auch als Menschen&nbsp;&ndash; mit Sprache, Mimik und Gestik.</span></p>
<p class="p3"><span class="s2"><b>Welche Entwicklungen in der Halbleitertechnologie sind dabei f&uuml;r Sie besonders spannend?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> An der Universit&auml;t Duisburg-Essen haben wir eine Gruppe von Forschern und Ingenieuren, die sich mit der Terahertz-Technologie besch&auml;ftigen. Dar&uuml;ber l&auml;sst sich sehr gut die Umgebung erkennen. Man sieht eine Wand, ein Fenster und eine Ecke und kann sogar sagen, ob der Bereich aus Holz, Stein oder Kunststoff ist. Es gibt viele Ideen, wie diese Technologie genutzt werden kann, um Biosignale ber&uuml;hrungslos zu messen. So kann man zum Beispiel &uuml;ber die Reflexion der Terahertz-Wellen die Bewegung der Muskeln messen. Und anhand dieser Bewegungen wissen wir, was die Hand und die Finger tun.</p>
<p class="p2"><span class="s4">Interessant ist auch der Einsatz von Graphen, um eine epidermale Elektronik zu realisieren, die unter Nutzung von Terahertz-Technologie passiv ohne Chip und Kabel am K&ouml;rper funktioniert und die elektrische Aktivit&auml;t in den Muskeln mit einer sehr hohen Aufl&ouml;sung misst. Das ist nicht nur f&uuml;r die Interaktion sehr interessant, sondern zum Beispiel auch, um Muskelkrankheiten zu verstehen. </span></p>
<p class="p3"><span class="s2"><b>Fehlt Ihnen bei den heute verf&uuml;gbaren Halbleiterl&ouml;sungen noch etwas f&uuml;r Ihre Plattform?</b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> Stellen Sie sich vor, Sie wollen eine Analyse der Gehirnaktivit&auml;t f&uuml;r sehr komplizierte Fragen durchf&uuml;hren. Daf&uuml;r braucht man eine gro&szlig;e Menge an Daten und m&auml;chtige Machine Learning-Modelle. Das ist vor Ort vielleicht ziemlich schwierig zu realisieren. Aber die Forschung befasst sich bereits damit, diese gro&szlig;en KI-Modelle in kleine Embedded-Ger&auml;te zu bringen. Das ist auch f&uuml;r uns sehr wichtig. Denn wenn man mit seinem Exoskelett in der freien Natur heruml&auml;uft und kein Internet hat, dann ist man wirklich in Schwierigkeiten, wenn man sich auf eine KI-Verarbeitung verl&auml;sst, die in der <a href="https://future-markets-magazine.com/de/encyclopedia/cloud/" target="_blank" title="IT-Ressourcen werden &uuml;ber das Internet bedarfsgerecht bereitgestellt und nach dem tats&auml;chlichen Verbrauch abgerechnet." class="encyclopedia">Cloud</a> l&auml;uft.</p>
<p class="p2"><span class="s4">Um das KI-Modell jedoch in das System zu integrieren, brauchen wir sehr energieeffiziente Rechenleistungen. Dabei muss das Modell auch im Einsatz weiterhin lernen k&ouml;nnen. Denn stellen Sie sich vor, Sie haben einen Patienten, bei dem ein Signal mit der Zeit immer besser wird. Das sollte das Modell erkennen, sodass sich das System vielleicht mehr auf die Muskeln als auf das EEG verl&auml;sst. </span></p>
<p class="p3"><span class="s2"><b>Was ist aus Ihrer Sicht wichtig beim Design einer optimalen Mensch-Maschine-Schnittstelle? </b></span></p>
<p class="p2"><span class="s3"><b>E.&thinsp;A.&thinsp;K.:</b></span> Das Wichtigste ist, dass man offen ist. Also nicht zu sagen, ich bin BCI-Forscher, also will ich das mit der Gehirnaktivit&auml;t machen. Man sollte immer &uuml;berlegen, was man tun will und wie der Mensch interagieren w&uuml;rde.</p>
<p class="p2">Als Zweites sollte man immer daran denken, dass wir &uuml;ber eine diverse Gesellschaft sprechen. Vielleicht ist die Mimik bei verschiedenen Nationalit&auml;ten unterschiedlich? Man sollte also bei der Entwicklung eines solchen Systems nicht nur die Technologie ber&uuml;cksichtigen, sondern auch das soziale Umfeld.</p>
<p class="p2">F&uuml;r mich ist es auch sehr wichtig, mit den Personen zu sprechen, die das System sp&auml;ter benutzen.</p>
<p class="p3"><span class="s2"><b>Maschinen, die die Gedanken des Menschen lesen k&ouml;nnen&nbsp;&ndash; ist das der erste Schritt hin zu Hollywoods Dystopie, in der Maschinen die Macht &uuml;ber Menschen erlangen?</b></span></p>
<p class="p2"><span class="s6"><b>E.&thinsp;A.&thinsp;K.:</b></span><span class="s4"> Im Moment sind wir noch nicht an dem Punkt, an dem wir wirklich komplett die Gedanken lesen k&ouml;nnen. Und um ehrlich zu sein, glaube ich auch nicht, dass die Gefahr darin besteht, dass die Maschine den Menschen kontrolliert. Ich sehe das Risiko eher darin, dass ein anderer Mensch Zugang zu dem Gehirn haben k&ouml;nnte. </span></p>
<p class="p2">Wir hatten zum Beispiel ein Projekt, bei dem wir einen EEG-basierten Ansatz entwickeln wollten, um eine hohe Arbeitsbelastung von Personen in einem Unternehmen zu erkennen, um zum Beispiel einen Burn-out zu verhindern.</p>
<p class="p2">Dabei muss man nat&uuml;rlich zum einen verhindern, dass jemand mit krimineller Energie die Daten in der <a href="https://future-markets-magazine.com/de/encyclopedia/cloud/" target="_blank" title="IT-Ressourcen werden &uuml;ber das Internet bedarfsgerecht bereitgestellt und nach dem tats&auml;chlichen Verbrauch abgerechnet." class="encyclopedia">Cloud</a> abgreift. Aber selbst wenn diese Daten nur genutzt werden, um die Umgebung der Person in der Produktion zu optimieren, zum Beispiel um einen Roboter zu verlangsamen, dann kann das auf die Person zur&uuml;ckfallen. Weil der Arbeitgeber dann vielleicht sagt, ich stelle lieber jemanden J&uuml;ngeren ein, bei dem der Roboter schneller arbeiten kann.</p>
<p class="p2">Das Verst&auml;ndnis einer Person kann also auch dazu benutzt werden, die Situation zu verschlimmern oder Personen zu schaden. So k&ouml;nnen wir zum Beispiel Personen diskriminieren, weil wir herausfinden, dass sie bestimmte Dinge nicht erkennen oder ihre Aufmerksamkeit sehr gering ist. Das kann schon heute passieren, wenn man Zugang zum EEG der Person hat.</p>
<p class="p3"><span class="s1"><b>Zum Schluss ein Blick in die Zukunft&nbsp;&ndash; sie </b></span><b>d&uuml;rfen jetzt vision&auml;r werden: Wie werden wir </b><span class="s2"><b>in 25 Jahren mit Maschinen interagieren? </b></span></p>
<p class="p2"><span class="s5"><b>E.&thinsp;A.&thinsp;K.:</b></span><span class="s2"> Ich erwarte, dass dann die Interaktion mit Maschinen sehr &auml;hnlich ist wie die mit anderen Personen. Wir werden sehr nat&uuml;rlich mit Systemen interagieren und sprechen. Dazu erkennen die Systeme, was wir wollen. Dabei wird die multimodale Interaktion selbstverst&auml;ndlich sein. Ich glaube, dass es in Zukunft sehr schwer sein wird, von au&szlig;en zu erkennen, ob wir mit einem anderen Menschen oder mit einer Maschine interagieren. </span></p>
<p>The post <a href="https://future-markets-magazine.com/de/innovators/auf-dem-weg-zum-vorausschauenden-roboter/">Auf dem Weg zum vorausschauenden Roboter</a> appeared first on <a href="https://future-markets-magazine.com/de/">Future Markets Magazine</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
