Wie definiert man die Ethik einer KI?

Anwendungen, die auf Künstlicher Intelligenz basieren, kommen immer mehr auf den Markt – doch wie sollen End-User entscheiden, welcher Anwendung sie trauen können? Wir sind der Meinung, dass Firmen, die KI entwickeln auch ein Stück weit mit dafür verantwortlich sind, dass man diesen Anwendungen auch vertrauen kann. Denn die Künstlichen Intelligenzen werden nicht für sich selbst entwickelt, sondern sollen den Menschen helfen, ihnen Aufgaben erleichtern oder abnehmen oder schnellere und sicherere Entscheidungen ermöglichen. Gleichzeitig wächst die Angst, von diesen KIs ausgespäht zu werden.

Ähnlich wie beim Energieverbrauch soll es nun ein KI-Ethiklabel geben – das hat zumindest die AI Ethics Impact Group (AIEIG) vorgeschlagen, um das Vertrauen in KI zu stärken und auch eine stärkere und klarere Kontrolle zu ermöglichen.  Zusätzlich gibt es Richtlinien der europäischen Kommission, die aber

kein so klares System darstellt, weshalb sich dieser Blogbeitrag hauptsächlich auf den Vorschlag der AIEIG bezieht. Diese hat für Ihre Vorschläge zunächst eine Metaanalyse von mehr als 100 KI-Ethik-Richtlinien vorgenommen.

Was spricht für ein solches Label?

Zum einen bietet es eine Richtlinie zur Ausgestaltung der Anwendungen und Produkte, zum anderen können seriöse Anbieter durch ein gutes Label im Wettbewerb davon profitieren, da das Vertrauen in sie steigt. Ein Vergleich der Label kann vor dem Kauf entscheidend sein. Das zeigt auch eine Studie des Capgemini Research Institute. Dort beantworteten 62 % der Befragten die Frage, ob Sie einem Unternehmen mehr vertrauen, wenn deren Nutzung von KI als ethisch betrachtet wird, mit Ja. 55 Prozent würden dann sogar mehr Produkte kaufen und das Unternehmen positiv bewerten.

Wie ist die Risiko-Matrix aufgebaut?

Doch was heißt eigentlich Ethik in Bezug auf KI und wo ist eine ethische Bewertung überhaupt notwendig? Zur Lösung dieser Frage wird eine Risiko-Matrix vorgeschlagen. Diese geht von 0 bis 5, wobei die Stufe 0 absolut harmlose Tools beschreibt, wie zum Beispiel ein intelligenten Größenfinder für die perfekt passende Jeans. Dort ist keine besondere ethische Bewertung nötig. Die Risikoklassen steigen in ihren ethischen Anforderungen an Verantwortlichkeit (accountability), Transparenz (transparancy), Verlässlichkeit (reliability), Nachhaltigkeit (environmental substainability), Datenschutz bzw. Schutz der Privatsphäre (privacy)und Gerechtigkeit (justice). Die höchste Stufe, Stufe 5 beschreibt algorithmische Entscheidungen, die Betroffene einem schwerwiegenden Risiko mit potenziell irreversiblen Folgen aussetzt, wie beispielsweise einem autonomen Waffensystem. Hier wurde von der AIEIG vorgeschlagen, dass in dieser Stufe keine Entscheidungen vom Algorithmus erfolgen sollte, d.h. immer mindestens eine Überprüfung durch menschliche Expert:innen erfolgen muss. Das Label gibt also keine einfachen Ja-oder nein-Siegel, sondern vergeben, ähnlich der Energielabels, abgestufte Kennzeichnungen der relevanten Eigenschaften des Systems. Ein System kann beispielsweise äußerst transparent sein und dort die Wertung A bekommen, gleichzeitig aber noch nicht wirklich gerecht und dort die Wertung F erhalten. Durch diese Kennzeichnungen, haben potenzielle End-User sofort eine Übersicht, was sie bei der betreffenden KI erwartet und für sich passgenau die KI-Anwendung finden, die den eigenen Anforderungen entspricht.

Ab wann eine Anwendung als ethisch akzeptabel gilt, ist dann jeweils vom konkreten Anwendungsfall abhängig. Durch die Matrix lässt sich das gut abbilden und detailliert analysieren. Stellt man sich die Matrix in einem zweidimensionalen Ansatz vor, bezeichnet die X-Achse die Intensität des potenziellen Schadens und die Y-Achse beschreibt die Abhängigkeit der betroffenen Person(en) von den jeweiligen Entscheidungen. So kann beispielsweise die Landwirtschaft einen Algorithmus, der im Bereich der Transparenz nur ein D als Bewertung bekommt, nutzen, dasselbe System könnte aber im Gesundheitssektor nicht für eine Arbeit mit personenbezogenen Daten genutzt werden.

Ethik-Label als sinnvoller Maßstab – ja oder nein?

Insgesamt begrüßen wir eine Auseinandersetzung mit der Frage und die Diskussion darüber, welche Entscheidungen eine KI treffen soll oder darf. Gerade in der jetzigen Zeit, in der KI-Anwendungen immer weitverbreiteter werden, glauben wir, dass eine allgemeingültige Richtlinie und Grenzsetzung (wo darf die KI selbst entscheiden und wo wird die Künstliche Intelligenz nur als Hilfe oder Empfehlung genutzt) sinnvoll wäre, auch um das Vertrauen in die Algorithmen zu steigern und begründbar zu machen.

Die Firmen, die KI-Anwendungen entwickeln, sollten direkt von Anfang an Verantwortung übernehmen, angefangen bei der Auswahl der Daten, mit denen trainiert wird (wieso das so wichtig ist, steht hier und hier). Darüber hinaus sollte getestet werden, wie der jeweilige Algorithmus auch in unvorhergesehenen Situationen reagiert (diese Anforderung wird von Stufe zu Stufe natürlich wichtiger). Eine moralische Frage, die jedes Unternehmen sich selbst stellen und beantworten muss, ist, bis zu welchem Grad und welcher Stufe es Algorithmen entwickelt. Wie diese Antwort ausfällt, kann nicht von außen vorgeschrieben werden. Wir haben beschlossen, keine KI-Systeme zu entwickeln, die auf den Stufen 4-5 rangieren, da diese durch ihre Entscheidungen potenzielle Schaden an Menschen verursachen können.

Gleichzeitig halten wir es für wichtig, dass auch in Deutschland und Europa weiter an KI geforscht wird und auch die Risiken und Gefahren (auf die wir auch in diesem Blogpost eingegangen sind), nicht dazu führen, die Forschung an Künstlicher Intelligenz einzustellen. Denn wir brauchen auch eine Expertise, wenn Produkte, Anwendungen und Algorithmen aus beispielsweise Asien oder Amerika bei uns eingesetzt werden.

Kaja Wehner

Verfasst von Kaja Wehner am

Du hast eine Frage oder Anregung zum Thema?

Schreib mir eine Mail an: kaja.wehner@compaile.com

Mail schreiben