KI-Ethik – von nichts kommt nichts.
Mit dem Siegeszug von Big Data setzen private wie öffentliche Organisationen zunehmend KI-Technologien ein, um die Automatisierung und datengestützte Entscheidungsfindung voranzutreiben und so die Effizienz zu steigern und das Wachstum zu fördern. Der zunehmende Einsatz von KI-Technologien wird jedoch von einem nicht abreissenden Strom von Skandalen um deren unethischen Einsatz begleitet. KI-Assistenten wie Google, Alexa, Siri und Co. und Arbeitende der dahinterstehenden Unternehmen, die «versehentlich» private Gespräche von Menschen abhören; Facebooks algorithmische Förderung von Fehlinformationen, Desinformationen und anderen schädlichen Inhalten, deren massive Weitergabe von Nutzerdaten oder rassistische «Falschetikettierung»; Clearviews rechtswidrige Überwachung durch Gesichtserkennung… die Liste ist lang. Und es geht nicht nur um private Unternehmen. Der niederländische Kinderbetreuungsgeld-Skandal zum Beispiel, bei dem die niederländischen Steuerbehörden einen stark tendenziösen Algorithmus verwendeten, um niederländische Einwohner mit einem hohen Risiko für Kinderbetreuungsgeld-Betrug zu kennzeichnen, hatte verheerende Auswirkungen auf echte Menschen. Zehntausende von Familien – oft mit geringem Einkommen oder Angehörige ethnischer Minderheiten – wurden von den Behörden in die Armut getrieben. Dies aus einem blossen Verdacht heraus, der allein auf die vom System ausgespuckten Risikoprofile beruhte. Mehr als tausend Kinder wurden in Pflegefamilien untergebracht, viele von ihnen über Jahre hinweg. Die Kriterien für die Risikoprofile wurden von Mitarbeitern der Steuerbehörde entwickelt und umfassten unter anderem eine doppelte Staatsangehörigkeit oder ein geringes Einkommen.
Mit dem Bekanntwerden solcher Fälle von unethischem Einsatz oder unethischen Ergebnissen entwickelten sich die Diskussionen über technologiebasierte Probleme in der Regel zu Diskussionen über «Bugs» und Programmierfehler oder Trainingsdaten und darüber, wie eine «ethische KI» entwickelt und implementiert werden kann. Es wird eine neue Version mit mehr Parametern herausgegeben, um Verzerrungen abzumildern, oder was auch immer das Problem zu sein scheint. Oder das Projekt wird ganz eingestellt, wie bei Amazons KI-Rekrutierungstool, Microsofts rassistischem Chatbot Tay und vielen anderen Vorhaben. Obwohl sich diese Fehler oft als Fehler und Mängel in der Programmierung, in den Trainingsdaten oder in den Benutzeroberflächen manifestieren, sind sie nahezu immer die Folge tiefer liegender Probleme: mangelhafte Anforderungen, mangelhafte Prozesse, mangelhafte Governance. Wieso hat Amazons Recruiting-Technologie versagt? Sie wurde anhand eines Datensatzes früherer Einstellungen in einem Unternehmen trainiert, das eindeutig voreingenommene Einstellungspraktiken hatte. Weshalb sind die vielen «Versuche» von Facebook, die Verbreitung von Fehlinformationen und Hassreden einzudämmen, gescheitert? Weil die geänderten Algorithmen die oberste (und möglicherweise einzige) Priorität des Unternehmens untergraben haben, nämlich ungehindertes Wachstum. Und die niederländischen Behörden? Nun, abgesehen von der institutionellen Voreingenommenheit, die in die Algorithmen einfloss, scheint es, dass Menschen einem KI-System Entscheidungen überliessen, die das Leben anderer Menschen massiv beeinflussen – ohne die Ergebnisse zu hinterfragen.
In jedem dieser Fälle lag das zentrale Versagen nicht bei der unethischen KI. Vielmehr war die unethische KI das unvermeidliche Ergebnis eines organisationsweiten ethischen Versagens. Wie Dave Lauer in seinem Meinungsbeitrag so gekonnt aufzeigt, kann ethische KI nicht in einem Vakuum abseits allgemeiner ethischer Grundsätze existieren. Facebook und viele andere Unternehmen haben immer wieder bewiesen, dass grundlegend unethische Unternehmen keine ethische KI umsetzen können oder wollen, indem sie einfach einen KI-Ethikausschuss (ohne jegliche Befugnisse) und ein paar ethische Richtlinien (die nie durchgesetzt werden) einrichten. «Ethics Washing» und Lippenbekenntnisse allein reichen schlicht nicht aus. Um eine ethische KI zu entwickeln, bedarf es einer soliden ethischen Grundlage im gesamten Unternehmen und möglicherweise darüber hinaus. Sowie ein klares Verständnis dafür, wie schwierig es tatsächlich ist, wirklich transparente und faire KI-Systeme zu entwickeln und einzusetzen. Auf dieser soliden Grundlage kann sich die KI-Ethik ganz natürlich aus einem umfassenden ethischen Ansatz der Organisationen ergeben, die KI-Technologien entwickeln und einsetzen. Mit anderen Worten: Ethik durch Design.
Glücklicherweise gibt es in der KI-Branche durchaus Unternehmen, die sich der Komplexität der Entwicklung und des Einsatzes ethischer KI bewusst sind und (KI-)ethische Grundsätze systemisch eingeführt haben. Wie etwa das PaaS-Startup Fiddler AI, dessen Tools Entwicklern helfen, ethische KI zu realisieren, indem sie ihre Machine-Learning-Modelle und -Datensätze überwachen, darin Verzerrungen erkennen und Erklärbarkeit, Transparenz und Fairness integrieren. Das Kernziel des Unternehmens ist es, «Vertrauen und Transparenz in jegliche Art von KI zu bringen». Dies widerspiegelt sich auch in der Unternehmenskultur, in der die Verantwortung für ethische KI bei jedem und jeder Einzelnen liegt und die «auf den Werten Bescheidenheit, Respekt, Freundlichkeit, Transparenz und Zusammenarbeit aufbaut». Auf dieser Grundlage ist es schwer, keine ethische KI zu entwickeln.
Dies ist auch der Ansatz, den wir hier bei JANZZ verfolgen. Seit der Gründung des Unternehmens im Jahr 2008 besteht unsere Mission darin, Leben zu verbessern, indem wir Software entwickeln, die gleiche Beschäftigungschancen für alle fördert. Wir setzen uns für einen ethischen und verantwortungsvollen Umgang mit Technologien und Daten ein und entwickeln auf erklärbarer KI basierende Softwaresysteme, die sicher, transparent und unvoreingenommen sind und somit für Einzelpersonen, Organisationen und Gemeinschaften von Nutzen sind. Um dies zu gewährleisten, haben wir sieben Kernprinzipien für die KI-Ethik in der HR-Technologie entwickelt, die wir gewissenhaft befolgen – nicht nur über den gesamten KI-Lebenszyklus hinweg, sondern eingewoben in die Struktur unserer gesamten Organisation.