Digitale Ethik – Quo vadis?

Veröffentlicht von

Algorithmen: Ob in Werbeanzeigen, zu Preisfestsetzungen, in Apps, bei Kreditvergabeverfahren oder Bewerbungsprozessen. Nahezu überall begegnen sie uns, allerdings nicht immer offensichtlich. Im best case unterstützen sie uns, machen uns produktiver; im worst case führen sie zu Kontrolle, Überwachung oder intransparenten, wenn nicht sogar fehlerhaften Entscheidungen.
Wohin führt das? Welche Regeln sollen gelten?

Diese Frage stellen sich auch Politik und Unternehmen. Es werden mehr und mehr Räte oder Kommissionen gegründet, die sich mit dem ethischen Umgang mit Künstlicher Intelligenz (KI) beschäftigen. In Deutschland wurde im letzten Jahr beispielsweise das „KI-Gütesiegel“ des KI Bundesverband e.V. ins Leben gerufen. Der Bundesverband setzt sich aus etwa 160 Unternehmen und Experten zusammen. Erklärtes Ziel ist es, Künstliche Intelligenzen zu entwickeln, die menschen-zentriert und menschen-dienlich sind. Dies soll mithilfe einer Selbstverpflichtungserklärung und des Gütesiegels umgesetzt werden, das für die Kriterien Ethik, Unvoreingenommenheit, Transparenz, Sicherheit und Datenschutz steht. Durch die Zusammenarbeit der verschiedenen Unternehmen und Experten soll unter anderem die praktische Umsetzung von KI-Technologien durch Förderprogramme, Projekte und Kooperationen zwischen Startups, Wissenschaft und etablierten Unternehmen sowie die Aufklärung der Gesellschaft und Wirtschaft über Chancen und Risiken vorangetrieben werden (KI Bundesverband e.V., 2019a, 2019b).

Auch die EU-Kommission hat einen Ethikrat gegründet, scheint allerdings noch etwas vorsichtig bei diesem Thema zu sein.

Medienberichten zufolge habe sie zwar erkannt, dass die EU bei diesem Thema präsent sein müsse, gleichzeitig dürften die Herausforderungen und Risiken nicht unterschätzt werden. Von den USA und China, die einen Wettkampf um die KI-Vorreiterrolle austragen, möchte sich die Kommission distanzieren. Der Plan ist, eine Vorbildfunktion hinsichtlich vertrauenswürdiger KI einzunehmen, an der sich andere Länder orientieren. Es geht darum, die menschliche Autonomie zu respektieren, gesellschaftlichen Schaden zu vermeiden, fair zu handeln und transparent zu sein (Hegemann, 2019). Bereits 2018 wurde ein erstes Papier mit Ethikrichtlinien veröffentlicht, zu denen auf Wunsch der Kommission viele Kommentare eingingen und welches daraufhin überarbeitet und ergänzt wurde. Im Kern geht es unter anderem um die folgenden Punkte (European Commission, 2019):

  • KI-Systeme sollten menschliche Handlungsweisen und Grundrechte unterstützen. Die menschliche Autonomie soll nicht verringert, einschränkt oder irregeführt werden.
  • Eine vertrauenswürdige KI erfordert, dass die Algorithmen sicher, zuverlässig und robust sind, um Fehler oder Inkonsistenzen zu jedem Zeitpunkt zu vermeiden.
  • Die Bürger sollten die volle Kontrolle über ihre eigenen Daten haben. Die Verwendung der Daten darf nicht zu Schäden oder Diskriminierung führen.
  • Die Rückverfolgbarkeit von KI-Systemen sollte gewährleistet sein.
  • KI-Systeme sollten eingesetzt werden, um den positiven sozialen Wandel zu fördern und Nachhaltigkeit sowie ökologische Verantwortung zu stärken.
  • Es sollten Mechanismen geschaffen werden, um die Verantwortung und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse zu gewährleisten.

Menschen sollen demnach etwa das Recht besitzen, dass Entscheidungen nicht vollständig automatisch getroffen werden, wenn diese zu einer Benachteiligung führen würden. Ein Beispiel ist die Kreditvergabe. Hier müssen Kunden das explizite Recht besitzen, mit einem Berater in Kontakt zu treten. Die Autonomie der Menschen darf nicht verringert, eingeschränkt oder fehlgeleitet werden. In Bezug auf Diskriminierung rät die Kommission, Systeme umfassend zu testen und die Vollständigkeit von Daten zu prüfen. Außerdem soll auf diverse Teams gesetzt, der gesellschaftliche Dialog gestärkt und die Weiterbildung von Mitarbeitern gefördert werden, um Fehler zu vermeiden (Hegemann, 2019; Matthes, 09.04.2019; Kafsack, 08.04.2019).

Auch Google hat sich an einem Ethikrat versucht.

„Versucht“ deswegen, weil dieser bereits nach einer Woche aufgrund starker Kritik aufgelöst wurde. Was war passiert? Der Ethikrat habe im aktuellen Umfeld nicht so funktioniert, wie es gewünscht war, teilte das Unternehmen mit. Besonders die Zusammensetzung der Mitglieder wurde kritisiert. Die Personalie, die für Aufregung sorgte, war Kay Coles James, Vorsitzende des konservativen Think Tanks Heritage Foundation. Sie äußerte sich Medienberichten zufolge in der Vergangenheit offenbar diskriminierend gegenüber Transgener und Migranten. Es wurde eine Petition eingereicht, die unter anderem von Google Mitarbeitern selbst unterzeichnet wurde. Auch die Teilnahme des Vorsitzenden einer Drohnenfirma stieß auf Kritik (FAZ, 2019).

Eine Reihe weiterer Unternehmen haben ebenfalls Ethikräte gegründet. Das Problem ist allerdings, dass ihre Empfehlungen für das Management nicht bindend sind.

Dennoch sollten weiterhin die Unternehmen in erster Instanz versuchen, die Forderungen der Gesellschaft freiwillig umzusetzen. Wenn das nicht funktioniert, wie etwa im Beispiel von Google, muss der Staat in Form von Regulierungen eingreifen. Doch auch diese sind oft nicht lückenlos. Es muss verhindert werden, dass KI Menschen entmündigt oder benachteiligt. Warum sich Unternehmen oft gegen Richtlinien sträuben, liegt auf der Hand: mit personenbezogenen Daten lässt sich Geld verdienen. Unter dem Aspekt der Gewinnmaximierung wird sich implizit auf die alte Maxime nach Milton Friedman „Profit, Profit, Profit“ berufen. Vielmehr sollte sich diese langfristige Zielfunktion nachhaltig zu „Profit, People, Planet“ entwickeln. Der Grad ist schmal: einerseits muss die Technologie gefördert werden, andererseits darf der Mensch und sein Vertrauen nicht aus den Augen verloren werden. Die Balance zwischen staatlicher Regulierung und unternehmerischer Selbstverpflichtung muss gefunden werden.

 

Quellen

European Commission, 2019, Ethics guidelines for trustworthy AI, https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai [10.04.2019]

FAZ, 2019, Google löst KI-Ethikrat nach einer Woche wieder auf, https://www.faz.net/aktuell/wirtschaft/diginomics/kritik-an-zusammensetzung-google-loest-ki-ethikrat-nach-einer-woche-wieder-auf-16125962.html [10.04.2019]

Hegemann, Lisa, 2019, Eine Frage der Ethik, https://www.zeit.de/digital/internet/2019-04/kuenstliche-intelligenz-eu-kommission-richtlinien-moral-kodex-maschinen-ethik [10.04.2019]

Kafsack, Hendrik, 08.04.2019, EU möchte sich abheben. Eine Ethikcheckliste für die Künstliche Intelligenz, https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/eu-kommission-ethikcheckliste-fuer-die-kuenstliche-intelligenz-16130447.html [10.04.2019]

Kerkmann, Christof, 03.04.2019, Ethik im Digitalzeitalter. Ein Biosiegel für Software, in: Handelsblatt, 03.04.2019, S. 18

KI Bundesverband e.V., 2019a, KI Gütesiegel, https://ki-verband.de/wp-content/uploads/2019/02/KIBV_Guetesiegel.pdf [10.04.2019]

KI Bundesverband e.V., 2019b, Über uns, Unsere Mission, https://ki-verband.de/ [10.04.2019]

Matthes, Sebastian, 09.04.2019, Künstliche Intelligenz und Ethik. …Kontrolle ist besser, in: Handelsblatt, 09.04.2019, S. 23

Lena Suling
Lena arbeitet seit 2018 als Referentin in der IW Akademie. Sie studierte im Master Betriebswirtschaftslehre mit dem Schwerpunkt Management/Marketing an der Universität Duisburg-Essen.