JANZZ.technology bietet erklärbare künstliche Intelligenz (XAI)

Im Verlaufe des letzten Jahrzehntes haben maschinelles Lernen (ML) und insbesondere Deep-Learning-Systeme dank dem Vorhandensein grösserer Datensätzen und fortschrittlicher Rechenleistungen signifikante Optimierung erfahren. Der dramatische Erfolg von ML forciert uns aber auch dazu, von künstlicher Intelligenz (KI) geleitete Applikationsprozesse zu tolerieren. Aufgrund deren immer autonomeren Systeme sind aktuelle Maschinen nicht in der Lage, Benutzer*innen über ihre Prozesse zu informieren.

Heutzutage sind die meisten KI-Technologien von privaten Herstellern entwickelt, welche sicherstellen, dass ihre Datenprozessierung geheim bleibt. Dazu kommt, dass viele Firmen in ihren AI-Technologien komplexe neurale Netzwerke verwenden, welche keine Erklärungen für die erbrachten Resultate liefern können.

Wenn diese Art von System beispielsweise das Reisen von Kund*innen auf fälschliche Weise beeinflusst, mag dies noch nicht von einschlägiger Konsequenz sein. Was geschieht aber, wenn es einen inkorrekten Einfluss auf autonome Fahrzeuge, medizinische Diagnosen, Politikgestaltung oder Arbeitsstellen hat?  In diesem Falle würde es schwierig, dem Entscheidungsprozess des Systems blind zu vertrauen.

Anfangs dieses Jahres hat die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) mit dem Ziel Innovation und Vertrauen zu fördern ihre Prinzipien zu KI veröffentlicht. Eines der fünf komplementären wertorientierten Prinzipien für die verantwortungsbewusste Handhabung vertrauenswürdiger KI ist, dass “es Transparenz und verantwortungsvolle Offenlegung zu KI-Systemen braucht, um sicherzustellen, dass die Leute KI-basierte Ergebnisse verstehen und hinterfragen können”. [1]

Erklärbare künstliche Intelligenz (XAI) hat sich in letzter Zeit im ML-Bereich als Möglichkeit zum Angehen von “Black Box”-Entscheidungen in KI-Systemen etabliert. Wie bereits erwähnt können die meisten derzeitigen Algorithmen im ML den Leuten nicht auf verständliche Art und Weise erklären, wie und weshalb Entscheidungen gemacht werden. Deshalb ist es schwierig, solche Entscheidungen auf Fehler und Bias zu untersuchen, insbesondere im Falle gängiger Algorithmen von Ansätzen im Bereich von Deep-Learning in neuralen Netzwerken. [2]

Folglich haben zahlreiche regulierende Instanzen, inklusive der OECD, Firmen dazu aufgefordert, mehr auf XAI zurückzugreifen. Die in Kraft getretene Datenschutz-Grundverordnung begründete für Leute innerhalb der Europäischen Union das «Recht auf persönliche Überprüfung» von jeder algorithmischen Entscheidung. In den Vereinigten Staaten zwingen Versicherungsgesetze Firmen dazu, ihre Entscheidungen – zum Beispiel weshalb sie den Versicherungsschutz gewissen Gruppen oder Individuen verweigern oder ihnen höhere Zuschläge verrechnen – zu erläutern. [3]

Es gibt zwei Hauptprobleme in Bezug auf XAI. Das erste ist, dass es schwierig ist, XAI als Konzept zu definieren. Darüber hinaus sollten sich Benutzer*innen den Limitierungen ihres Wissens bewusst sein. Wenn Firmen keine andere Wahl hätten, als detaillierte Erklärungen für alles zu liefern, würde geistiges Eigentum als Alleinstellungsmerkmal (USP) nicht mehr existieren. [4]

Die zweite Problematik besteht darin, den Trade-Off zwischen Leistung und Erklärbarkeit zu beurteilen. Müssen wir gewisse Aufgaben standardisieren und Industrien regulieren, um sie für die Suche nach transparent integrierten KI-Lösungen brauchbar zu machen? Selbst wenn das bedeutet, dass diese Industrien dadurch sehr stark belastet werden?

Bei JANZZ.technology tun wir unser Bestes, um unseren Nutzer*innen zu erklären, wie wir Kandidat*innen und Stellen matchen. Unsere einzigartige Matching-Software exkludiert nebensächliche Parameter wie Geschlecht, Alter oder Nationalität und vergleicht nur Fähigkeiten, Ausbildung/Training, Spezialisierungen, Erfahrungen, etc. Sie verwendet also nur Aspekte, welche von wirklicher Bedeutung für das Finden der perfekten Kandidat*innen sind.

Anstatt nur einen Matching-Score zu liefern, zerlegt unser Matching-System alle Kriterien in Aspekte wie Funktionen, Fähigkeiten, Sprachen und Verfügbarkeit. Dies ermöglicht Benutzer*innen, ein besseres Verständnis der Resultate zu haben und liefert die Grundlage für das Reskilling und Upskilling der zu analysierenden Arbeitskräfte. Möchten Sie mehr darüber erfahren, wie JANZZ.technology erklärende KI-Lösungen einsetzt? Dann schreiben Sie bitte an sales@janzz.technology

 

[1] OECD. 2019. OECD Principles on AI. URL :https://www.oecd.org/going-digital/ai/principles/ [2019.9.17].

[2] Ron Schmelzer. 2019. Understanding Explainable AI. URL: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/#6b4882fa7c9e[2019.9.17].

[3] Jeremy Kahn. 2018. Artificial Intelligence Has Some Explaining to Do. URL: https://www.bloomberg.com/news/articles/2018-12-12/artificial-intelligence-has-some-explaining-to-do[2019.9.17].

[4] Rudina Seseri. 2018. The problem with ‘explainable AI’. URL: https://techcrunch.com/2018/06/14/the-problem-with-explainable-ai/[2019.9.17].