Künstliche Intelligenz ist nur so gut, wie ihre Datenbasis. Berücksichtigt diese nicht alle Faktoren und alle Bevölkerungsgruppen, können fehlerhafte und voreingenommene Entscheidungen herauskommen. Doch wie steht es um die Ethik und Grundsätze Künstlicher Intelligenz in aktuellen Anwendungen?
Das Feld der Künstlichen Intelligenz entwickelt sich rasant und verspricht, einige der größten Herausforderungen unserer Gesellschaft zu bewältigen“, so Kate Crawford, Mitbegründerin des AI Now Institutes. „Aber wir benötigen dringend mehr Forschung über die realen Auswirkungen von KI-Implementierungen in unseren sensibelsten sozialen Einrichtungen. Die Menschen sind bereits von diesen Systemen betroffen, sei es in der Schule, auf der Suche nach Arbeit, beim Lesen von Nachrichten im Internet oder beim Umgang mit der Justiz.“ Genau aus diesem Grund wurde das AI Now Institute Ende 2017 an der New York University gegründet: Es ist das erste universitäre Forschungsinstitut, das sich den sozialen Auswirkungen Künstlicher Intelligenz widmet. Dazu will es die KI-Forschung um Experten aus Bereichen wie Recht, Gesundheitswesen, Arbeits- und Sozialwissenschaften ergänzen. Meredith Whittaker, ebenfalls Mitbegründerin von AI Now. „Die Gewährleistung einer sicheren und gerechten KI erfordert ein viel breiteres Spektrum an Fachwissen als nur Technik-Know-how. Genauso wie man einem Richter nicht vertrauen würde, ein tiefes neuronales Netzwerk aufzubauen, sollten wir aufhören zu glauben, dass ein Ingenieursabschluss ausreicht, um komplexe Entscheidungen in Bereichen wie der Strafjustiz zu treffen. Wir brauchen Experten aus den Bereichen Recht, Gesundheitswesen, Bildung, Wirtschaft und darüber hinaus.“
Eine sichere und gerechte KI erfordert ein viel breiteres Spektrum an Fachwissen als nur Technik-Know-how.
KI-Systeme mit Vorurteilen sind Realität
„Wir haben einen wichtigen Wendepunkt in der Entwicklung und Implementierung von KI-Systemen erreicht“, so Kate Crawford. „Wenn diese Systeme nicht richtig gemanagt werden, können sie auch weitreichende soziale Folgen haben, die schwer vorhersehbar und kaum umkehrbar sind. Wir können es uns einfach nicht leisten abzuwarten, wie sich die Künstliche Intelligenz auf die verschiedenen Bevölkerungsgruppen auswirkt.“ Das AI Now Institute will dazu Methoden zur Messung und zum Verständnis der Auswirkungen von KI in der Gesellschaft entwickeln.
Schon heute zeigt sich, dass unausgereifte oder voreingenommene KI-Systeme sehr real sind und Folgen haben: Das bewies unter anderem ein Team von Journalisten und Technikern bei Propublica, einem Non-Profit-Newsdesk für investigativen Journalismus. Sie testeten einen Algorithmus, der von Gerichten und Strafverfolgungsbehörden in den USA verwendet wird, um Rückfälle bei Kriminellen vorherzusagen. Das Ergebnis: Er war messbar gegenüber Afroamerikanern voreingenommen. Derartige vorurteilsbehafteten Entscheidungen entstehen, wenn die Datengrundlage, mit denen die KI arbeitet, nicht neutral ist. Wenn sie zum Beispiel soziale Ungleichheiten enthält, ist auch die Auswertung tendenziös. Werden als Grundlage für ein Analyseverfahren beispielsweise nur Daten von Männern genutzt, werden Frauen möglicherweise benachteiligt.
Gefährlich ist es auch, wenn den KI-Systemen nicht alle relevanten Kriterien beigebracht wurden. So stellte zum Beispiel das Medical Center der University of Pittsburgh fest, dass einem KI-System zur Ersteinschätzung von Lungenentzündungs-Patienten ein Hauptrisikofaktor für schwerwiegende Komplikationen fehlte. Und es gibt viele andere relevante Bereiche, in denen KI-Systeme derzeit verwendet werden, ohne dass sie auf Voreingenommenheit und Ungenauigkeit geprüft und bewertet werden.
Mechanismen zur Überprüfung benötigt
In seinem Forschungsbericht 2017 fordert das AI Now Institute daher alle wichtigen öffentlichen Institutionen auf, den Einsatz von „Black Box“ KI sofort zu beenden. „Wenn über die Risiken der KI gesprochen wird, gibt es eine Tendenz, sich auf die ferne Zukunft zu konzentrieren“, meint Meredith Whittaker. „Aber diese Systeme werden bereits heute in kritischen Einrichtungen implementiert. Wir sind wirklich besorgt, dass die bisher aufgedeckten Beispiele nur die Spitze des Eisbergs sind. Es ist zwingend notwendig, dass wir die Black-Box-Algorithmen in den relevanten Institutionen nicht mehr verwenden, bis wir Methoden zur Gewährleistung grundlegender Sicherheit und Fairness haben.“