Warum man keine Angst vor Künstlicher Intelligenz haben sollte

Je schneller die Entwicklung der KI voranschreitet, desto größer scheint die Angst davor in Teilen der Bevölkerung zu werden. Motive wie bewaffnete Roboter oder ein Komplettüberwachung durch eine KI finden sich immer mehr in Filmen und Büchern. Doch ist diese Angst rational begründbar?

Humanoide Roboter, die gegen die Menschen kämpfen, gibt es nur im Film

Eines lässt sich erstmal direkt feststellen. Die humanoiden Roboter, die sich gegen die Menschheit stellen, haben nichts mit der Künstlichen Intelligenz zu tun, wie wir sie momentan kennen und entwickeln. Es ist lediglich ein Filmmotiv. Die Angst vor Innovationen ist so alt wie die Innovationen selbst – selbst bei der Erfindung des Buchdruckes gab es Bedenken über die Fülle an Druckerzeugnissen und Ihrer Auswirkungen. Die Wahrheit hinter KI, wie sie uns momentan begegnet, ist im Moment sogar ziemlich langweilig – es handelt sich um neuronale Netze und Software. Doch auch diese können Angst machen. Das liegt mit Sicherheit auch an der Art und Weise wie sie funktionieren. Man kann nämlich stellenweise von „black boxes“ sprechen, d.h. niemand weiß ganz genau, warum die Software jetzt erkennt, was sie erkennt. Der Grund dafür ist die Komplexität der neuronalen Netze, die aus unterschiedlich vielen Schichten und Neuronen bestehen. Wir haben in einem früheren Blogbeitrag bereits erklärt, was eine KI ist und wie sie funktioniert.

Wieso entscheidet die KI so?

Trotzdem ist es bei sehr verantwortungsvollen Themen wie selbstfahrenden Autos oder medizinischer Diagnosen wichtig herauszufinden, warum eine KI so entscheidet wie sie entscheidet. Daran wird auch geforscht. Mit der „Layer-wise Relevance Propagation“-Analysemethode versuchen Wissenschaftler im Prozess rückwärts zu gehen und sichtbar zu machen, an welcher Stelle welche Neuronen Entscheidungen getroffen haben und inwiefern und wie stark diese Entscheidungen zum Ergebnis beigetragen haben. Hat man dann diese Ergebnisse, macht man Künstliche Intelligenzen noch sicherer, weil man dann genau prüfen kann, ob der Algorithmus das macht, was er soll. Das ist vor allem in Bereichen wichtig, in denen KI eine verantwortungsvolle Entscheidung trifft, die ggf. Menschenleben betrifft (wie z. B. in einem selbstfahrenden Auto).

KI kann‘s besser?

Es gibt schon heute Teilbereiche unseres Alltags, in denen eine Künstliche Intelligenz im Vergleich besser abschneidet als die Menschen, dabei handelt es sich aber um sehr begrenzte Aufgabenfelder, wie Verkehrsschilder erkennen (auch im Dunkeln oder wenn diese verschmutzt sind), Spracherkennung oder ähnliches. Doch auch die KIs müssen erstmal auf ihrem Gebiet traiiert werden, dies kann aber auch nicht allein geschehen. KI braucht also Menschen, die ihr erst beibringen müssen, was erkannt werden soll und die die KI mit Daten trainieren. Das sind in den gut funktionierenden Bereichen immer Muster – in Video- oder Bilddaten, in Text- oder Ton-Dateien. Je besser das Datenset (das die Menschen auswählen), desto höhere Erkennungsraten der KI können erreicht werden. Dass die KI in diesen Bereichen manchmal sogar den Menschen im Vergleich abhängen, sollte uns nicht irritieren. Die KI ist nämlich nur auf ihren speziellen Bereich spezialisiert, die Lebenserfahrung und die Fähigkeit, Situationen vollumfassend begreifen und einschätzen zu können, fehlt ihr. Darauf sind wir auch in unserem Blogpost Eine KI kann nicht alles eingegangen.

Kann sich eine KI verselbstständigen?

Angst zu haben, dass eine so spezifische KI sich ohne äußere Einflüsse einfach weiterentwickelt und vom Menschen nicht mehr zu kontrollieren ist, ist unbegründet. Sie wird von Menschen trainiert und lernt, was ihr vorgegeben wird. Damit kann Sie uns im Alltag Prozesse abnehmen, die für Menschen ggf. mühsam und anstrengend sind und schenkt so mehr Zeit oder Geld. Was den Algorithmen von den Menschen beigebracht wird, darüber wird in Zukunft zu sprechen sein. Im Idealfall sollte die KI nämlich dem ethischen Anspruch gerecht werden, nicht diskriminierend zu entscheiden. Um das zu erreichen braucht es Maßstäbe für die Trainingsdaten.

Aber was ist, wenn die KI eine eigene Sprache entwickelt?

Wenn momentan über Gefahren die von KIs ausgehen können gesprochen wird, dann kommt meistens ein Experiment von Facebook zur Sprache. 2017 wollten KI-Forscher des Unternehmens einen Chatbot weiterentwickeln und ihm beibringen, mit ihrem Gesprächspartner zu verhandeln anstatt wie bislang nur auf einfache Fragen antworten zu können. Der Chatbot sollte in Zukunft im Gespräch abwägen können und Kompromisse schließen können. Dafür trainierte die KI mit sich selbst und verhandelte. Nach einiger Zeit konnte beobachtet werden, wie aus der englischen Standardsprache eine Art eigene Sprache entstand. Mit dieser konnte die KI im Verlauf effektiver und auch erfolgreicher verhandeln. Nachdem die Forscher die Gedankengänge nicht mehr nachvollziehen konnten beendeten sie das Experiment. Daraus speiste sich die Angst, dass die KI sich verselbstständigt hatte und möglicherweise schon andere KIs unbemerkt eine eigene Sprache erfunden hätten, gegen die die Menschheit nichts mehr ausrichten könnte.  Dabei ist die Sorge nicht berechtigt, sagt der verantwortliche Mitarbeiter Dhruv Batra. Das KIs eine eigene Sprache entwickeln können, ist keine neue Erkenntnis, so Batra. Außerdem ist dieser Fakt alleine nicht gefährlich. Die eigene Sprache ist mit Codewörtern bzw. Abkürzungen vergleichbar, die zwei Menschen untereinander benutzen, um effizienter zu kommunizieren und auch kein neues Phänomen, sondern seit vielen Jahren aus der Forschung bekannt. Auch in diesem Fall wurde das Experiment nicht aus einer Angst heraus beendet. Facebook wollte mit dem Experiment erreichen, dass der Chatbot irgendwann mit einem menschlichen Gegenüber verhandeln kann, wofür er auch dessen Sprache sprechen muss. Da dies nicht mehr gegeben war, war das Experiment für das Ziel nicht mehr brauchbar und wurde daher abgebrochen. Von einer übermächtigen KI, die die Menschheit überwacht und gegen sie kämpft müssen wir daher nicht fürchten.

 

Auf weitere Risiken und Gefahren der KI gehen wir auch in unserem nächsten Blogartikel ein. Außerdem möchten wir uns mit ethischen Fragen beschäftigen. Wenn Ihr Fragen und Anregungen habt, schreibt uns gerne an kaja.wehner@compaile.com

Kaja Wehner

Verfasst von Kaja Wehner am

Du hast Fragen oder Anregungen zum Thema?

Schreib mir eine Mail an: kaja.wehner@compaile.com

Mail schreiben