Wenn Maschinen denken lernen

Immer mehr Wissenschaftler und Unternehmer warnen vor den Gefahren intelligenter Maschinen. Schon in wenigen Jahren sollen Maschinen über eine ähnliche Intelligenz verfügen wie der Mensch.

Dank der rasanten Entwicklung in Elektronik und Software entstehen immer mehr smarte Systeme, die uns bei Entscheidungen unterstützen und im Alltag aktiv helfen. Der Begriff „Künstliche Intelligenz“ taucht dabei immer häufiger auf. Sie soll es einer Maschine oder einem Computer ermöglichen, Aufgaben zu lösen, für die ein Mensch Intelligenz benötigt. Künstliche Intelligenz (KI) fasst bisher dem Menschen vorbehaltene Fähigkeiten als informationsverarbeitende Prozesse auf. Dabei soll sie nicht nur menschliche Fähigkeiten nachahmen, sondern dem Menschen Zusatzfähigkeiten geben, die ihm die biologische Evolution vorenthalten hat. Wissenschaftler unterscheiden drei verschiedene Arten der künstlichen Intelligenz: Bei der ersten handelt es sich um Expertensysteme. Diese sind gut darin, aus Daten Wissen abzuleiten. Mit solchen Systemen kann man beispielsweise in der Elektronik von Autos einen Fehler finden, ohne dass der Programmierer diesen Fehler explizit in das Analyseprogramm aufgenommen hat. Eine zweite Art Künstlicher Intelligenz ist die sogenannte Schwarmintelligenz. Hier kooperiert eine Population autonomer Softwareprogramme miteinander, um ein Problem zu lösen. Bei der dritten Art handelt es sich um selbstlernende Systeme. Diese verbessern sich fortwährend autonom, ohne dass der Mensch eingreift.

In wenigen Jahren kann KI den ­Menschen überholen

Gerade diese letzte Form weckt bei Forschern und führenden Unternehmern zunehmend Besorgnis. „Die Entwicklung von vollständig künstlicher Intelligenz könnte das Ende der Menschheit bedeuten“, sagte zum Beispiel der weltbekannte theoretische Physiker Stephen Hawking kürzlich der BBC. „Das Risiko, dass etwas ernsthaft Gefährliches passiert, liegt innerhalb eines Zeitrahmens von fünf Jahren. Zehn Jahren höchstens“, schlägt Elon Musk, führender Hightech-Investor und CEO von Tesla, in die gleiche Kerbe. Und auch Bill Gates, der als Microsoft-Gründer einen nicht unerheblichen Teil zur Entwicklung intelligenter Systeme beigetragen hat, meinte in einer Internet-Fragerunde: „Ich gehöre zu denen, die besorgt sind über Superintelligenz. Zunächst werden die Maschinen viele Jobs für uns erledigen und nicht superintelligent sein. Das sollte etwas Positives sein, wenn wir es gut managen. Einige Jahrzehnte später wird die Intelligenz allerdings stark genug sein, um Besorgnis zu erregen. Ich stimme darin Elon Musk und einigen anderen zu und verstehe nicht, warum manche Leute nicht besorgt sind.“ Viele Experten sind sich einig, dass es nur noch wenige Jahre braucht, bis die sogenannte „technologische Singularität“ erreicht ist: Dann haben Maschinen mittels künstlicher Intelligenz die Menschen mit ihren Fähigkeiten überholt.

Beängstigend und nützlich gleichzeitig

Tatsächlich kann die Digitalisierung der Welt mit immer smarteren Maschinen auf der einen Seite unsere Gesundheit, Sicherheit und Effizienz dramatisch verbessern, hat aber auf der anderen Seite auch unerwünschte und unbedachte Konsequenzen. Tatsache ist, dass die total vernetzte Welt, je nach Standpunkt, Himmel und Hölle, beängstigend oder nützlich sein kann. „Es ist beides“, meint dazu der globale Zukunftsberater Gerd Leonhard aus Basel. Er fordert deshalb, dass Grundsätze zu einem moralischen Handeln in einer digital komplett vernetzten Welt entwickelt werden: „Ohne eine stärkere Fokussierung auf digitale Ethik wird der technologische Fortschritt zu einer Bedrohung für die Menschheit.“

KI muss Vorteile bringen

Er steht mit dieser Forderung bei weitem nicht allein da: In einem offenen Brief, der von zahlreichen Wissenschaftlern, Entwicklern und Unternehmern weltweit unterzeichnet ist, fordert das Future of Life Institut dazu auf, die Forschung an künstlicher Intelligenz mit Bedacht voranzutreiben. Die Wissenschaftler schreiben aber auch, dass der potenzielle Nutzen gewaltig ist. Es sei nicht vorhersagbar, was erreicht werden kann, wenn die menschliche Intelligenz durch Tools der künstlichen Intelligenz verstärkt wird: Sie halten es durchaus für möglich, dass Krankheiten und Armut ausgerottet werden. Aber gerade wegen dieses großen Potenzials von künstlicher Intelligenz müsse untersucht werden, wie der Nutzen geerntet und gleichzeitig potenzielle Fallgruben vermieden werden können. Daher sollte immer darauf geachtet werden, dass KI-Systeme stabil seien und den Menschen Vorteile brächten: „Unsere KI-Systeme müssen das tun, was wir wollen, das sie tun.“

(Bildnachweis: Fotolia: ralwel)

Related Posts

  • Durch neue technische Entwicklungen kommen gemischte Teams aus Mensch und Roboter zunehmend im ­Arbeitsalltag an. Die Kombination der Stärken beider ­ermöglicht eine…

  • Mit den drei Robotergesetzen hat Isaac Asimov im Jahr 1942 Regeln für das Zusammenleben von Mensch und Roboter definiert, die heute aktueller…

  • Mit einem intelligenten Handschuh setzt das Start-up Workaround am meistgenutzten Werkzeug in der Industrie an: der Hand. So soll die Handarbeit schneller,…