Kann eine KI diskriminieren?

Mit Künstlicher Intelligenz sind nicht nur Chancen, Hoffnungen und Arbeitserleichterungen verbunden, es kommen auch ethische Fragen auf, die es zu beantworten gilt. Bereits im Blogpost Chancen und Risiken durch KI sind wir kurz auf einige Risiken, die die Verwendung von KI mit sich bringen können, eingegangen. Auch, wenn man vor Künstlicher Intelligenz wirklich keine Angst zu haben braucht, wie wir in unserem letzten Blogbeitrag bereits angemerkt haben, so stellt die Technologie die Menschheit eben durchaus vor ethische und moralische Herausforderungen und birgt auch Risiken. Mit diesen möchten wir uns nun beschäftigen.

Die Einstellung in der Gesellschaft und Wirtschaft gegenüber dem Einsatz der Technologie Künstliche Intelligenz ist geprägt von Hoffnung, aber auch Bedenken und Sorgen. Das zeigt auch eine Umfrage unter 600 Unternehmensvertretern.  Dort waren sich 81 Prozent einig, dass KI zwar das menschliche Handeln unterstützen soll, aber die Autonomie des Menschen nicht einschränken darf. Genauso wichtig waren Transparenz, also die Nachvollziehbarkeit der Entscheidungen, die die Künstliche Intelligenz trifft, sowie die Datensicherheit. Allerdings gibt es nur in 5% der befragten Unternehmen bereits Richtlinien zu dem Einsatz von KI.

Doch diese Richtlinien sind wichtig, um eine Künstliche Intelligenz zu entwickeln, die beispielsweise nicht diskriminierend entscheidet. Erst wenn die Lücke zwischen Anspruch an die KI und der Realität geschlossen wird, kann die Akzeptanz der Gesellschaft gegenüber der Künstlichen Intelligenz wachsen.

Welche Aspekte sollten in den Richtlinien berücksichtigt werden?

Wir differenzieren zwischen unterschiedlichen Punkten, die in der Richtlinie beachtet werden sollten oder könnten.

Selbstbestimmung und Transparenz: Kann die KI selbstbestimmt genutzt werden und wird die Anatomie der Menschen gewahrt? Sind die Entscheidungen und Funktionsweisen transparent und nachvollziehbar?

Sicherheit und Datenschutz: Werden sensible Daten (auch gegenüber von Angriffen und Fehlern) geschützt? Arbeitet die Künstliche Intelligenz zuverlässig?

Fairness und Recht: Hält sich die KI an geltende Gesetze und gesellschaftliche Werte? Entscheidet sie fair bzw. ethisch richtig? Wer trägt die Schuld, wenn die KI falsch entscheidet (Zum Beispiel selbstfahrende Autos).

Eine KI darf nicht diskriminieren

In diesem Blogbeitrag wollen wir uns vor allem auf den Fairness-Aspekt konzentrieren. Denn gerade hier sehen wir eine hohe gesellschaftliche und politische Relevanz. Denn wenn man nicht das richtige Datenset verwendet, kann eine KI-Anwendung auch diskriminierend entscheiden.

Dazu zunächst mal zwei Beispiele, wie schnell eine KI aus falschen – aber realen Daten lernt. Denn eine KI lernt aus Beispielsdaten, die zum Training genutzt werden, diese sind nicht immer unvoreingenommen. Die Künstliche Intelligenz wird mit diesen Daten trainiert und kann dadurch zu einem unfairen System werden.

 

Künstliche Intelligenz im Bewerbungsprozess

So wurde KI in einem großen Unternehmen eingesetzt, um im Bewerbungsprozess Bewerbungen vorzusortieren und zu bewerten. Dabei wurde auf die Daten der letzten Jahre zurückgegriffen, die menschlichen Entscheidungen der Personalabteilung wurden also als Grundlage für das Training der Künstliche Intelligenz genutzt. Die Firma hatte in den Vorjahren häufig Stellen mit männlichen Bewerbern besetzt, was zur Folge hatte, dass die KI Männer nun auch bevorzugte und für die offenen Stellen vorschlug. Dieser Fall ist aber kein Einzelfall, auch in einem Arbeitsamt wurde eine ähnliche Software eingesetzt, die zuvor mit Daten des Amtes eingelernt wurde. Dort sollte ermittelt werden, welchen Menschen wie viel Unterstützung und Weiterbildung zugestanden werden sollte (und wo danach ein erfolgreicher Wiedereinstieg ins Arbeitsleben erfolgte). Die Berechnung benachteiligte vor allem Frauen mit Kind aus einem sozialen Brennpunkt – einfach, weil sie verschiedene Punkte, die die Daten zuvor als negativ eingeschätzt hatten, erfüllten.

 

Gute Datensätze sind extrem wichtig

Diese zwei Beispiele, von denen es noch wesentlich mehr gibt, zeigen, wie wichtig es ist, das richtige Datenset zu wählen, um nicht menschliche Vorurteile und Fehlentscheidungen auf die KIs zu übertragen. Wir, die wir verantwortlich für die Algorithmen sind, müssen verantwortungsvoll bereits die Trainingsdaten zusammenstellen und die Ergebnisse zunächst kontrollieren.

Es braucht also ausbalancierte Datenpools. Soll beispielsweise eine Gesichtserkennungssoftware entwickelt werden, sollte diese nicht nur mit Fotos von Personen mit heller Haut trainiert werden, sondern mit Bildern von People of Color, von Menschen unterschiedlichen Alters, unterschiedlichen Geschlechts und so weiter. Die gesellschaftliche Diversität muss sich hier dann im Datensatz widerspiegeln.  Wenn die realen Daten, z.B. einer Firma, nicht ausreichen, muss man zusätzliche Daten beschaffen oder auch künstlich erzeugen. Was sonst noch ein gutes Datenset ausmacht, haben wir bereits in einem früheren Blogpost detailliert erläutert.

Kaja Wehner

Verfasst von Kaja Wehner am

Du hast Fragen oder Anregungen zum Thema?

Schreib mir eine Mail an: kaja.wehner@compaile.com

Mail schreiben