Das Potential von KI fürs Personalmanagement

Künstliche Intelligenz (KI) ist zweifellos ein leistungsfähiges Hilfsmittel. Ihr ökonomischer Wert steigt stetig und transformiert zahlreiche Industrien, wie zum Beispiel die Herstellung, FinTech, das Gesundheitswesen und die Automobilbranche. Arbeitnehmer*innen im Finanzwesen und im Marketing können KI-Technologien bereits erfolgreich nutzen, während Personalmanager*innen bei deren Integration in ihre alltäglichen Praxen noch Schwierigkeiten haben.

Prasanna Tambe, Peter Cappelli und Valery Yakubovich legen in ihrer Recherche dar, dass «es in HR systemische und strukturelle Unterschiede gibt, welche die Konstruktion eines auf KI-basierenden Systems erschweren» [1]. Weil die Qualität und das Erklärungspotential von Big Data und KI begrenzt sind, werden sie im Personalmanagement und bei der Einstellung immer noch als eher unkonventionell betrachtet. Um ein besseres Verständnis hiervon zu erhalten, müssen wir KI-Probleme im Hinblick auf Data Science im Personalmanagement (HRM) betrachten.

In Bezug auf Data Science gibt es drei Hauptherausforderungen für die HR-Praxis. Die erste Angelegenheit betrifft den Mangel an Konstanz in der Messung des HR-Prozesses während eines Mitarbeiterlebenszyklus. Wenn zum Beispiel zu bestimmen ist, welche*r Kandidat*in angestellt oder befördert werden soll, ist es wichtig, dabei fortlaufend die Kriterien und Fähigkeiten, welche bei der Entscheidung ausschlaggebend waren, zu dokumentieren und zu analysieren.

Das zweite Problem der HR-Praxis ist, dass im HRM produzierte Datensets beschränkt sind. Ferner sind solche Daten oftmals unstrukturiert (auf dem Papier, in Excel oder PDF) und, konsequenterweise, für den Computer schwierig zu prozessieren.

Die dritte Schwierigkeit ergibt sich aus den ethischen Bedenken im Hinblick auf die Datenverarbeitung. Resultate von HR-Entscheidungen können einen starken Einfluss auf die Karriere haben. Deshalb ist es unerlässlich, sich Gedanken darüber zu machen, wie Fairness und Transparenz erreicht werden können. Darüber hinaus ist es ebenfalls wichtig zu wissen, wie Angestellte auf Resultate die nur durch datengestützte Algorithmen erzeugt werden, reagieren. Wie Morgan Hampton von Tesla findet, «sollte Rekrutierung so viel wie möglich automatisiert werden, nicht aber die Einstellung, welche möglichst persönlich bleiben soll».

Nebst dem Miteinbezug dieser drei Probleme sollten Personalmanager*innen sich bei der Suche nach KI-Lösungen auf die folgenden Aspekte konzentrieren, um KI effektiver zu nutzen. Erstens müssen Personalmanager*innen den richtigen HR-Prozess entwickeln, also einen der dem digitalen Zeitalter und der KI-Technologie entspricht.

Gegenwärtig laufen die KI-Technologien separat, zum Beispiel in der Rekrutierung und Talentgewinnung, in der Lohnverwaltung und in der SB-Transaktion. Jedoch fehlt dabei ein Mechanismus, der Daten generiert, welche dem gesamten KI-Prozess in den HR-Praxen zuträglich sind.

Personalmanager*innen behalten oftmals nur die Bewerbungen die sie auch interessieren. Die Bewerbungen, welche herausgefiltert werden, führen zu eindimensionalen Schlussfolgerungen [1]. Eigentlich sollten alle Kriterien bei der Datensammlung erfasst und zu Schluss evaluiert werden, um die Entwicklung von Big-Data-Modellen und KI-Prozessen zu optimieren.

Des Weiteren ist es wesentlich, dass die Daten auf nachhaltige Art und Weise erhoben werden.  Beispielsweise gibt es KI-Applikationen, die voraussagen können, welche Angestellten ihren Job kündigen werden und solche, die sogar die Datenpunkte von den Social-Media-Accounts und E-Mail-Adressen der Angestellten verfolgen können [2]. Wenn Angestellte sich solch einem System bewusst wären, würden sie möglicherweise ihr Verhalten ändern und bewusst irreführende Daten produzieren.

Letztes Jahr machte die Geschichte über ein KI-Tool von Amazon, welches einen Bias gegenüber Frauen hatte, Schlagzeilen. Es wurde als Beweis dafür, dass Machinelles Lernen menschliche Haltungen nachahmen kann erachtet. Das Geschlecht einer Person ist aber lange nicht der einzige Aspekt, der zur Grundlage für Diskriminierung dienen kann. Alter, Nationalität oder Ethnie können ebenfalls einen negative Einfluss darauf haben, wie integrativ und divers eine Firma anstellt.

Personalmanager*innen sollten nur wichtige Daten sammeln und für erklärbare-KI-Lösungen suchen. Die komplexen neuralen Netzwerke im Deep Learning sind bei weitem nicht selbsterklärend.

Bis heute gibt es keine einheitliche Liste von Kriterien, die Personalmanager*innen in der HR-Praxis beachten sollten. Dies bedeutet, dass Personalmanager*innen mit der firmeninternen IT-Abteilung oder externen KI-Anbietern zusammenspannen müssen, um die besten Analyseverfahren zu etablieren. Diese Praktiken können dazu verwendet werden, Daten mittels KI zu tracken und zu messen.

Bei JANZZ.technology sind wir davon überzeugt, dass das Sammeln und Strukturieren von Daten essentiell ist. Unser Parser-Tool extrahiert die richtigen Einheiten von Papier, Excel oder PDF und stellt sicher, dass ein durchgehend fairer End-to-End Prozess gewährleistet wird. Möchten Sie mehr über unseren Parser und seine Fähigkeiten, Ihnen bei Ihrer KI-Transformierung zu helfen, erfahren? Dann schreiben Sie bitte an sales@janzz.technology

 

 

[1]Prasanna Tambe, Peter Cappellli and Valery Yakubovich. 2019. Artificial intelligence in human resources management: Challenges and a path forward. URL:https://www.researchgate.net/profile/Peter_Cappelli/publication/328798021_Artificial_Intelligence_in_Human_Resources_Management_Challenges_and_a_Path_Forward/links/5c5edc7f299bf1d14cb7dc5f/Artificial-Intelligence-in-Human-Resources-Management-Challenges-and-a-Path-Forward.pdf [2019.10.20]

[2] Samantha Mclaren. 2019. Here’s how IBM predicts 95% of its turnover using data. URL:https://business.linkedin.com/talent-solutions/blog/artificial-intelligence/2019/IBM-predicts-95-percent-of-turnover-using-AI-and-data[2019.10.20]

JANZZ.technology bietet erklärbare künstliche Intelligenz (XAI)

Im Verlaufe des letzten Jahrzehntes haben maschinelles Lernen (ML) und insbesondere Deep-Learning-Systeme dank dem Vorhandensein grösserer Datensätzen und fortschrittlicher Rechenleistungen signifikante Optimierung erfahren. Der dramatische Erfolg von ML forciert uns aber auch dazu, von künstlicher Intelligenz (KI) geleitete Applikationsprozesse zu tolerieren. Aufgrund deren immer autonomeren Systeme sind aktuelle Maschinen nicht in der Lage, Benutzer*innen über ihre Prozesse zu informieren.

Heutzutage sind die meisten KI-Technologien von privaten Herstellern entwickelt, welche sicherstellen, dass ihre Datenprozessierung geheim bleibt. Dazu kommt, dass viele Firmen in ihren AI-Technologien komplexe neurale Netzwerke verwenden, welche keine Erklärungen für die erbrachten Resultate liefern können.

Wenn diese Art von System beispielsweise das Reisen von Kund*innen auf fälschliche Weise beeinflusst, mag dies noch nicht von einschlägiger Konsequenz sein. Was geschieht aber, wenn es einen inkorrekten Einfluss auf autonome Fahrzeuge, medizinische Diagnosen, Politikgestaltung oder Arbeitsstellen hat?  In diesem Falle würde es schwierig, dem Entscheidungsprozess des Systems blind zu vertrauen.

Anfangs dieses Jahres hat die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) mit dem Ziel Innovation und Vertrauen zu fördern ihre Prinzipien zu KI veröffentlicht. Eines der fünf komplementären wertorientierten Prinzipien für die verantwortungsbewusste Handhabung vertrauenswürdiger KI ist, dass “es Transparenz und verantwortungsvolle Offenlegung zu KI-Systemen braucht, um sicherzustellen, dass die Leute KI-basierte Ergebnisse verstehen und hinterfragen können”. [1]

Erklärbare künstliche Intelligenz (XAI) hat sich in letzter Zeit im ML-Bereich als Möglichkeit zum Angehen von “Black Box”-Entscheidungen in KI-Systemen etabliert. Wie bereits erwähnt können die meisten derzeitigen Algorithmen im ML den Leuten nicht auf verständliche Art und Weise erklären, wie und weshalb Entscheidungen gemacht werden. Deshalb ist es schwierig, solche Entscheidungen auf Fehler und Bias zu untersuchen, insbesondere im Falle gängiger Algorithmen von Ansätzen im Bereich von Deep-Learning in neuralen Netzwerken. [2]

Folglich haben zahlreiche regulierende Instanzen, inklusive der OECD, Firmen dazu aufgefordert, mehr auf XAI zurückzugreifen. Die in Kraft getretene Datenschutz-Grundverordnung begründete für Leute innerhalb der Europäischen Union das «Recht auf persönliche Überprüfung» von jeder algorithmischen Entscheidung. In den Vereinigten Staaten zwingen Versicherungsgesetze Firmen dazu, ihre Entscheidungen – zum Beispiel weshalb sie den Versicherungsschutz gewissen Gruppen oder Individuen verweigern oder ihnen höhere Zuschläge verrechnen – zu erläutern. [3]

Es gibt zwei Hauptprobleme in Bezug auf XAI. Das erste ist, dass es schwierig ist, XAI als Konzept zu definieren. Darüber hinaus sollten sich Benutzer*innen den Limitierungen ihres Wissens bewusst sein. Wenn Firmen keine andere Wahl hätten, als detaillierte Erklärungen für alles zu liefern, würde geistiges Eigentum als Alleinstellungsmerkmal (USP) nicht mehr existieren. [4]

Die zweite Problematik besteht darin, den Trade-Off zwischen Leistung und Erklärbarkeit zu beurteilen. Müssen wir gewisse Aufgaben standardisieren und Industrien regulieren, um sie für die Suche nach transparent integrierten KI-Lösungen brauchbar zu machen? Selbst wenn das bedeutet, dass diese Industrien dadurch sehr stark belastet werden?

Bei JANZZ.technology tun wir unser Bestes, um unseren Nutzer*innen zu erklären, wie wir Kandidat*innen und Stellen matchen. Unsere einzigartige Matching-Software exkludiert nebensächliche Parameter wie Geschlecht, Alter oder Nationalität und vergleicht nur Fähigkeiten, Ausbildung/Training, Spezialisierungen, Erfahrungen, etc. Sie verwendet also nur Aspekte, welche von wirklicher Bedeutung für das Finden der perfekten Kandidat*innen sind.

Anstatt nur einen Matching-Score zu liefern, zerlegt unser Matching-System alle Kriterien in Aspekte wie Funktionen, Fähigkeiten, Sprachen und Verfügbarkeit. Dies ermöglicht Benutzer*innen, ein besseres Verständnis der Resultate zu haben und liefert die Grundlage für das Reskilling und Upskilling der zu analysierenden Arbeitskräfte. Möchten Sie mehr darüber erfahren, wie JANZZ.technology erklärende KI-Lösungen einsetzt? Dann schreiben Sie bitte an sales@janzz.technology

 

[1] OECD. 2019. OECD Principles on AI. URL :https://www.oecd.org/going-digital/ai/principles/ [2019.9.17].

[2] Ron Schmelzer. 2019. Understanding Explainable AI. URL: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/#6b4882fa7c9e[2019.9.17].

[3] Jeremy Kahn. 2018. Artificial Intelligence Has Some Explaining to Do. URL: https://www.bloomberg.com/news/articles/2018-12-12/artificial-intelligence-has-some-explaining-to-do[2019.9.17].

[4] Rudina Seseri. 2018. The problem with ‘explainable AI’. URL: https://techcrunch.com/2018/06/14/the-problem-with-explainable-ai/[2019.9.17].

 

 

 

 

Beispiele für CL-Applikationen bei der Talentakquise

Die JANZZ-Ontologie JANZZon! ist eine computerlinguistische Applikation (CL-Applikation) für die Talentakquise und kann zu Produkten wie Google Cloud Jobs API gezählt werden. Ein Artikel von Gartner mit dem Titel Impacts of Artificial Intelligence and Machine Learning on Human Capital Management fasst zusammen, dass Applikationen mit künstlicher Intelligenz (KI) und mit maschinellem Lernen die heutige Art und Weise, wie HR-Prozesse geschehen, aktiv verändern. Um den gesamten Bericht zu lesen besuchen Sie bitte: https://www.gartner.com/en/documents/3778864/impacts-of-artificial-intelligence-and-machine-learning  » Lesen Sie mehr über: Beispiele für CL-Applikationen bei der Talentakquise  »

Was Sie wissen sollten bei der Wahl Ihrer AI-Recruiting-Software

In einem Bericht präsentiert Deloitte die Entwicklung der HR-Technologie in vier Schritten. Der erste Schritt beschreibt die Zeitspanne zwischen den 1970ern und 1980ern, als der Hauptfokus der Software-Anbieter den Systemen galt, die den HR-Managern helfen konnten, Protokoll zu führen. In einem zweiten Schritt zwischen den 1990ern und den frühen 2000ern wurden HR-Fähigkeiten entwickelt, welche Rekrutierung, Schulung und Leistungskontrolle unterstützen konnten. Um 2010, im dritten Schritt, fingen Anbieter an Cloud-Services und benutzerfreundliche Systeme anzubieten, um Employee-Self-Services einzusetzen.

Der Deloitte-Bericht behauptet, dass wir heute im vierten Stadium der HR-Technologie stehen. Um auf die Mikrotrends des Arbeitsumfeldes reagieren zu können, mussten Anbieter Instrumente entwickeln, welche auf Teams, Individuen und Netzwerke abzielen und welche die menschliche Produktivität erhöhen. Bei JANZZ.technology denken wir auch, dass HR-Technologie Personalleiter darin unterstützen soll, die Produktivität und den Fokus auf wertschöpfende Arbeiten zu lenken. Zum Beispiel sollte der benötigte Aufwand für banale Aufgaben reduziert, das effiziente Sieben von tausenden von Kandidat*innen und deren ausführliche Bewerbungsgespräche ermöglicht werden. Wir glauben, dass dies durch Künstliche Intelligenz (KI) erreicht wird.

KI für die Rekrutierung

Talentgewinnung ist zweifellos einer der wichtigsten Teile der Unternehmensführung. Das macht den Recruiting-Software-Markt zum kompetitivsten und interessantesten Markt zum Beobachten. Staatliche Organisationen, wie der Arbeitsmarktservice, suchen aktiv Lösungen, um mit diesem Thema umzugehen. Gemäss Crunchbase haben Recruiting-Software-Startups in 2018 mehr als 600 Millionen Dollar VC-Finanzierung erhalten. Im letzten Market-Map von HR Tech China wurde festgestellt, dass Recruiting-Software-Anbieter den grössten Anteil der HR-Technologie-Anbieter ausmachen.

Die diversen Rekrutierungsplattformen der Anbieter beinhalten das Prüfen und Beurteilen der Kandidat*innen und deren Hintergrundsüberprüfungen und Video-Interviews. Erstmals Anfang 2017 ist KI im Rekrutierungsprozess aufgetaucht. Die darauffolgende Zunahme an KI-Fähigkeiten von Recruiting-Softwares könnte jeden HR-Manager überfordern.

KI für die Rekrutierung ist eine aufkommende Technologie im HR-Rekrutierungsprozess. Es braucht KI-Technologie hauptsächlich, um eine Reduktion von repetitiven, banalen und zeitaufwendigen Aufgaben zu ermöglichen, was Rekrutierern und Personalverantwortlichen hilft, sich auf wertschöpfende Aktivitäten zu konzentrieren. 52 Prozent der Talentgewinnungsführer geben an, dass der schwierigste Teil der Rekrutierung das Filtern der Kandidat*innen aus einem grossen Bewerberpool sei. [1] AI-Recruiting-Softwares können tausende von Bewerbungen filtern und im Nu die Top-5 Kandidat*innen vorschlagen. Somit werden HR-Manger mehr Ressourcen für den Rekrutierungsprozess haben und nur die Topkandidat*innen bewerten können, was ihre Chancen erhöht, die passendsten Kandidat*innen zu finden.

Hingegen benutzt die breite Öffentlichkeit den Begriff ‘KI’ in unklarer oder sogar unkorrekter Weise. Viele Firmen verwenden das Label KI um ihre Produkte zu beschreiben, damit diese aufgewertet erscheinen. In den meisten Fällen verspricht diese Art von Produktwerbung zu viel. Deswegen ist es äusserst wichtig, diese Art von Produkt und seine Anbieter beurteilen zu können. Dieser Prozess ist ähnlich wie der Rekrutierungsprozess: Nur wenn man verschiedene Möglichkeiten hat, die Optionen zu evaluieren, wird man die beste finden.

KI-Rekrutierungstechnologie beurteilen

Wie können HR-Manager den falschen Versprechen von AI-Recruiting-Softwares entgegenhalten? Wir haben drei Richtlinien, welche man einhalten sollte beim Aussuchen einer AI-Recruiting-Software.

Erste Richtlinie: Sich des Bias der AI-Recruiting-Software bewusst sein

Letztes Jahr war die Geschichte des Amazon Recruiting-Tools, welches voreingenommen gegenüber Frauen war, für uns alle ein Alarmsignal: Maschinelles Lernen kann genau so voreingenommen sein wie Menschen. Deswegen ist es sehr wichtig, auf die algorithmische Fairness und Transparenz zu achten.

Man muss sich bewusst sein, wie die Software persönliche Informationsdaten wie Geburtstag, Geschlecht und Nationalität verarbeitet. Welche Faktoren berücksichtigt die Software beim Matching? Und, ignoriert sie irrelevante Faktoren?

Abgesehen von Algorithmen muss man sicherstellen, dass die Software repräsentative Trainingsdaten prozessiert. Im Falle von Amazon hat sich das Instrument gegen weibliche Bewerberinnen gewandt, weil die Firma über zehn Jahre hinweg die Computermodelle nur mit CVs von männlichen Bewerbern trainiert hat. Deshalb, fragen Sie Ihren Software-Anbieter, wie er mit Ihrer Datenquelle umgeht.

Zweite Richtlinie: Vor dem Kauf wird getestet

Bevor man ein Auto kauft, macht man sicherlich eine Probefahrt. Diese Regel gilt auch bezüglich Recruiting-Softwares. Weil ein Recruiting-Software-System eine teure und langfristige Investition ist, macht es Sinn, ein POC (Proof of Concept) durchzuführen. In einem Probelauf werden Sie herausfinden, ob die Softwares wirklich Ihre priorisierten Probleme lösen, die versprochenen Funktionen bieten und mit Ihren Daten umgehen können.

JANZZ.technology hat eine POC mit einer internationalen Organisation durchgeführt, um herauszufinden, ob unsere Lösung Ihnen helfen könnte, bei der Kandidat*innensuche Zeit zu sparen. Unsere KI-Software ist im Matching von Kandidat*innen weltweit mit einer offenen Praktikumsstelle der Organisation gegen die HR-Abteilung der Organisation angetreten. Nach dem Filtern von tausenden von Bewerbungen waren sie beeindruckt von unseren Resultaten.

Die meisten guten Software-Anbieter bieten Gratis-Probeläufe an. Es ist wichtig, Ihre Testdaten vor dem Probelauf gut vorzubereiten, damit Sie ihn bestmöglich nutzen und im darauffolgenden Prozess optimieren können. Einer der oft ignorierten Aspekte ist die Wartung und Unterstützung, welche nach dem Kauf einer Rekrutierungs-Software benötigt werden. Nur mit konstanter Aktualisierung ist die Software fähig, sich parallel zum schnellentwickelnden Markt, zu den Kundenanforderungen und zu der kontinuierlichen Digitalisierung zu entwickeln. Vertrauen Sie nicht einfach Werbeslogans wie «50 andere führende Firmen aus Ihrer Industrie benützen unsere Software» oder «auch die Top 100 aus den Top 500 Firmen verwenden unsere Software».

Dritte Richtlinie: Die Soft Skills einer AI-Recruiting-Software in Betracht ziehen

Genau so wie man Jobkandidat*innen entsprechend ihrer Fähigkeiten und Soft Skills beurteilt, muss man das auch mit AI-Recruiting-Softwares machen. Wir bezeichnen die Hard Skills einer Software als Funktionalität, Genauigkeit, Datensicherheit, Schnelligkeit und Sprachfähigkeiten.

Jedoch übersehen viele die Soft Skills einer AI-Recruiting-Software. Diese beinhalten die Fähigkeit, die Sprachen, Ausbildungen, Arbeits- und Sozialsysteme etc. aus Ihrer Region tiefgründig zu verstehen und die Fähigkeit, spezifische Regionen und Länder zu lokalisieren.

Zum Beispiel hat ein Land wie Spanien mehrere Sprachen: Kastilisch, Katalanisch (oder Valenzianisch), Galizisch und Baskisch. Eine gute AI-Recruiting-Software sollte in der Lage sein, diese vier verschiedenen Sprachen zu verstehen und sollte wissen, wie geläufige Terminologien in denselbigen verwendet werden.

Job-Matching in Europa ist keine einfache Aufgabe. Zum Beispiel, weil jedes der 44 Länder sein eigenes Bildungssystem besitzt (sogar unter dem Bolognasystem). Es ist ein enormer Aufwand, die verschiedenen Bildungsniveaus zu vergleichen und Bewerber*innen mit Stellen zu matchen. Hat Ihr Anbieter die richtigen Kenntnisse um solche Probleme in Ihrer Region zu lösen?

Nebst Sprachen und Bildung gibt es viele gleichwichtige Kategorien, die ernst genommen werden müssen. Als eine internationale Korporation, welche in verschiedenen Ländern agiert, möchten Sie eine Software besitzen, welche alle für Sie relevanten Märkte versteht.

Limitierungen von KI

Sie haben vielleicht schon von all den versprochenen Vorteilen, die aus der Verwendung von AI-Recruiting-Softwares hervorgehen, gehört. Bevor die KI seine Magie entfalten kann, haben wir ein Wort der Warnung: Erwarten Sie nicht, dass KI-Softwares die Rekrutierungsentscheide von alleine fällen. Viele der vorhergehenden Anwendungsfälle haben gezeigt, dass die Technologie noch nicht ganz bereit ist. ‘’Wie man sicherstellen kann, dass der Algorithmus wirklich interpretierbar und erklärbar ist, das liegt weit in der Zukunft.’’  [2]

Falls Sie erwarten, dass KI und der Algorithmus ihre Arbeit gut machen, ist es genauso wichtig, sicherzustellen, dass die Firma oder Organisation bereit für KI ist, um seine Kraft zu maximieren. Wir alle wissen, dass Musteridentifikation und Vorhersage eine grosse Menge an Daten erfordern. Bei den weitverbreiteten Open-Source-Algorithmen sind die Daten, mit welchen sie trainiert werden ausschlaggebend. Jede Firma oder Organisation sollte einen klaren Plan haben, wie die qualitativen und quantitativen Daten generiert werden sollten, um der AI-Recruiting-Software zu helfen, genaue Resultate zu erzielen, welche für ihr Geschäft ökonomisch rentabel sind.

JANZZ.technology bietet KI-Lösungen für Ihr Rekrutierungssystem an und hilft Ihnen, die richtigen Fähigkeiten und Talente zu finden. Die Ontologie von JANZZon! und die clevere Matching-Engine JANZZsme! machen komplexe Probleme sowie Job- und Skill-Matching errechenbar und verändern die Art und Weise, wie wir Skill- und Talentsuche angehen, komplett. Die Applikationen von JANZZ.technology sind semantisch strukturiert, was heisst, dass Berufe, Spezialisierungen, Funktionen, Fähigkeiten, Qualifikationen, etc. logisch vernetzt werden. Die Applikationen von JANZZ.technology können sinnvolle Resultate aus komplexen Suchen in Echtzeit und in verschiedenen Sprachen hervorbringen. Unsere Applikationen werden konstant mit neuen Daten aktualisiert, welche von unseren Nutzern generiert werden. Deswegen werden sie im Laufe der Zeit immer genauer. Lassen Sie die Instrumente von JANZZ.technology Ihnen in der Suche nach den besten Kandidat*innen assistieren. Für eine Demonstration schreiben Sie bitte an sales@janzz.technology

[1] ideal. 2019. AI for recruiting: A definitive guide for HR professionals. URL: https://ideal.com/ai-recruiting/ [2019.05.28]

[2] Jeffrey Dastin. 2018. Amazon scraps secret AI recruiting tool that showed bias against women. URL: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G [2019.05.28]
[/av_textblock]

Realistische Einblicke in die Zukunft der Arbeit

Ideenreiche Diskussionen ergaben sich bei der zweitägigen Tagung zur Zukunft der Arbeit in Washington. Die Tagung am 27. und 28. November 2018 präsentierte viele verschiedene Möglichkeiten, moderne Technologien im Umfeld von Arbeitsmärkten zu nutzen, wie Blockchain, Künstliche Intelligenz und Machine Learning. An der von der Inter-American Development Bank und dem MIT media lab organisierten Veranstaltung nahmen hochrangige Spezialisten von Privatunternehmen, öffentlicher Organisationen und Universitäten aus aller Welt teil. Stefan Winzenried, CEO und Gründer, und Diego Rico, Vizepräsident und Projektmanager LATAM, freuten sich, JANZZ.technology bei der Tagung zu vertreten.

Das Ziel der Teilveranstaltung zum Thema «Künstliche Intelligenz und Matching Algorithmen für Arbeitsvermittlung» war es, verschiedene Systeme des intelligenten Matchings mit AI zwischen Jobsuchenden und Jobs vorzustellen. Cristina Pombo, Senior Beraterin in der Abteilung zum Sozialen Sektor bei der IDB, moderierte die Veranstaltung, in welcher, neben einem Vertreter von WCC, Stefan Winzenried Fragen aus dem Plenum beantwortete und Anregungen über die praktische Umsetzung sowie die Herausforderungen und Möglichkeiten von semantischem, transparentem und weitgehend diskriminierungsfreien Matching zu erläuterte. Insbesondere wurde verdeutlicht, wie potenzielle Vorurteile und/oder ungleiche Behandlung beim technologischen Recruiting frühzeitig verhindert werden können und welches die wichtigsten Möglichkeiten sind, welche sich durch solche Technologien für die Zukunft eröffnet.

Diego Rico präsentierte neue Tools für die Arbeitsmarktanalyse mit Hilfe der JANZZ White-Label-Plattform für Paraguay, „ParaEmpleo“. Ziel der Veranstaltung war es, fortschrittliche, sinnvolle und einfach zu nutzende Wege aufzuzeigen, wie Akteure auf dem Arbeitsmarkt besser informiert werden können.

Das JANZZ-Team konzentrierte sich darauf, die Tech- und Forschungsgespräche zu praktischen Anwendungsfällen aus dem aktuellen Projekt in Paraguay zu verknüpfen. Im Mittelpunkt der Diskussion standen die verschiedenen Strategien, Massnahmen und Einblicke, die aus der LATAM-Region in strukturierter und reichhaltiger Form erlangt werden konnten. Die Teilnahme des JANZZ-Teams endete mit einer aussagekräftigen Analyse der vergangenen und aktuellen Herausforderungen innerhalb des Projekts, sowie der Möglichkeit, es in verschiedenen LATAM-Ländern zu reproduzieren.

Schützt die jungen Menschen: Wie Arbeitsunfälle und Krankheiten weltweit Leben und Geld kosten

Junge Menschen sind wesentlich häufiger von Arbeitsunfällen und gesundheitliche Problemen durch ihre Arbeit betroffen als ältere Mitarbeitende. Nach Angaben der Europäischen Agentur für Sicherheit und Gesundheitsschutz sind sie sogar bis zu 40 % anfälliger für arbeitsbedingte Verletzungen. Junge Mitarbeiter müssen vom Arbeitgeber also wesentlich besser geschützt und geschult werden.

Die Vereinten Nationen definieren junge Arbeiter als Arbeitskräfte zwischen 15 und 24 Jahren. Hierbei ist es gleich, was für einer Arbeit sie nachgehen, ob sie festangestellt sind, sich in einem Lehrverhältnis oder Praktikum befinden oder das Familiengeschäft unterstützen. Es gibt weltweit 541 Millionen junge Mitarbeitende, welche 15 % der Erwerbsbevölkerung ausmachen.

Viele Menschen arbeiten unter gefährlichen Bedingungen. Insbesondere in Bereichen wie der Landwirtschaft, im Bau oder in der Produktion werden viele Arbeitsunfälle gemeldet. Laut der Internationalen Arbeitsorganisation (ILO) erlitten in einem Jahr 374 Millionen Mitarbeitende weltweit Arbeitsunfälle. In Europa wurden allein 2015 knapp 3900 sog. fatale Arbeitsunfälle verzeichnet. So werden Unfälle mit Todesfolge bezeichnet.

Mitarbeiter müssen umfangreich geschult werden.

Junge Menschen sind insbesondere von den hohen Gefahren betroffen, weil sie noch nicht über die gleichen Kompetenzen und die Erfahrung verfügen wie ältere Angestellte. Sie können also die Gefahren schlechter einschätzen und haben noch nicht das Wissen erhalten, wie sie den Gefahren vorbeugen können, bzw. diese vermindern. Gleichzeitig sind ihre Körper und Gehirne noch nicht vollentwickelt. Ein Beispiel hierfür ist der Frontalkortex, in welchem Vernunft und Urteilsfähigkeit ihren Sitz haben, und der sich erst ganz am Schluss, meist erst nach 20 vollständig entwickelt. Viele Geräte und Werkzeuge sind für die Handhabung von Erwachsenen gebaut, und somit verletzen sich die jungen Menschen daran leichter. Ebenso sind Reaktionen des Körpers auf Schadstoffe stärker. Letztendlich sind junge Mitarbeitende auch häufig nicht in der Lage dazu, auf Missstände hinzuweisen, da sie sie weder erkennen, noch dass sie sich trauen, etwas gegen ihren Arbeitgeber zu verbreiten.

Allgemein ist die Wahrscheinlichkeit für einen Arbeitsunfall vier Mal so hoch im ersten Monat eines Jobs als im gesamten folgenden Jahr. Diese Wahrscheinlichkeit steigt nun noch einmal enorm bei jungen Arbeitenden, da diese im ersten Monat fünf Mal so hoch ist wie bei älteren Arbeitenden. So nennt die Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz als Beispiel einen Fall eines 18-Jährigen, der nach vier Tagen Ausbildung an Verbrennungen starb, die er sich bei der Entsorgung von Benzin und Diesel zuzog. Sein Arbeitgeber hatte weder mit ihm noch anderen Mitarbeitenden grundlegende Sicherheitsschulungen durchgeführt.

Aufgrund von dieser und vielen weiteren Erfahrungen weist die Agentur auf die Wichtigkeit von Sicherheits- und Gesundheitsschulungen insbesondere für junge Mitarbeitende hin. So rät sie dazu, unter anderem umfassend über häufige und spezielle Gefahren, Möglichkeiten des Selbstschutzes, Ansprechpartner bei Gefährdungen, sowie Handlungen im Notfall zu informieren und zu beraten. Ebenso empfiehlt sie, Aufsichtspersonen spezifisch auf dem Umgang mit jungen Mitarbeitenden zu schulen, da bei diesen u.a. nicht die gleiche Umsicht zu erwarten ist wie bei älteren Mitarbeitenden. Gesetzlich ist ebenfalls in vielen Ländern festgelegt, dass der Arbeitgeber Gefahren ermitteln, Risiken beurteilen und diesen mit Massnahmen vorbeugen muss.

Schliesslich geht durch mangelhafte Arbeitssicherheit viel verloren. Die Internationale Arbeitsorganisation (ILO) geht davon aus, dass mangelhafte Arbeitsschutzverhältnisse rund 4 % des globalen BIP pro Jahr kosten. Unternehmen und Wirtschaft sind stark von Arbeitsunfällen betroffen, da mögliche Gefahren bereits die Produktivität verringern können, und von Unfall und Krankheit betroffene Mitarbeitende arbeitsunfähig sind. Ebenso fallen möglicherweise Investitionen in die Arbeitsplatzanpassung nach einer möglichen Behinderung der betroffenen Mitarbeitenden an. Nicht zuletzt sollte nicht vergessen werden, dass Arbeitsunfälle ein Leben lang Karrierechancen, die soziale Sicherheit und das grundsätzliche Wohlbefinden von (jungen) Menschen zerstören können. Schulungen und Investitionen lohnen sich demnach lang- und kurzfristig für Arbeitgeber und Arbeitnehmer.

Jedoch sollten bereits in einer Jobanzeige die wichtigsten Sicherheitshinweise aufgezeigt werden. Dies stellt den neuen jungen Mitarbeitenden bereits auf die Verhältnisse vor Ort ein und sorgt somit von Anfang an für eine erhöhte Umsicht. Mit dem Knowledge Graph JANZZon! und den weitentwickelten, mehrsprachigen Typeahead API’s können bereits Jobanzeigen von Berufen mit einem besonders hohen Risikopotenzial oder einem überdurchschnittlichen Anteil von jungen Arbeitnehmenden bei der Erfassung mit erforderlichen Sicherheitsskills semantisch sinnvoll angereichert werden bzw. die nötigen Informationen und Fähigkeiten in die Einstellungs- und Einarbeitungsprozesse integriert werden.

Immer noch mehr Lärm um nichts… oder warum der Hype um Big Data und AI meist mehr mit Selbstvermarktung als mit Fakten und Fortschritt zu tun hat.

Wir produzieren alle zwei Tage die Menge an Daten, die vorher insgesamt bis zum Jahr 2003 produziert wurde. Mit diesem Faktum schockierte der ehemalige CEO Googles, Eric Schmidt, schon 2010. Seitdem hat sich die Datenproduktion natürlich noch beschleunigt. Obwohl «Massendatenverarbeitung» zwar nichts Neues ist, ist erst in den letzten Jahren der Hype um den bekannteren Begriff «Big Data» richtig entfacht [1]. Doch viel zu schnell verlieren sich viele in diesem immer grösseren Daten-Dschungel und abstrusen Methoden.

 

Zufälle können nicht errechnet werden

Denn «Mehr Daten bedeutet eben nicht mehr Wissen», proklamiert Gerd Antes prägnant im Interview mit dem Tagesanzeiger. Der Mathematiker kritisiert den Rummel um Big Data Nutzung scharf, denn durch die Masse an Daten würden zufällige Korrelationen wahrscheinlicher. So zeigen der Pro-Kopf-Käsekonsum und die Anzahl Toter durch Verheddern im Bettlaken in den USA eine identische Kurve auf. Während eine maschinelle Analyse möglicherweise Rückschlüsse daraus gezogen hätte, erkennt ein menschlicher Wissenschaftler sofort, dass dies ein Zufall ist. [2]

Zufälle gibt es jedoch laut vielen Big Data Anhängern nicht mehr. Wenn genügend grosse Datenmengen verfügbar sind, meinen diese Anhänger nun, dass damit auch sämtliche Zusammenhänge vorausberechnet werden können.  Und zwar mithilfe von Machine oder Deep Learning sowie den richtigen Analysen. Die Erfahrung und verfügbaren Trainingssets (aus der Vergangenheit) würden dafür vollends ausreichen, und Fehlerbereiche aufgrund fehlender oder irrelevanter Daten gebe es kaum oder keine. Dieser Rückschluss ist doch überaus fatal. Natürlich können gewisse Bereiche, Zeiträume und Zusammenhänge, etc. für die etwas eher oder weniger wahrscheinlich eintritt, leichter erschlossen werden. Jedoch bedeutet dies noch lange nicht, dass deshalb keine Zufälle bzw. wesentliche Abweichungen möglich sind. Wie soll beispielsweise eine Analyse gesammelter Daten aus der Vergangenheit Verkehrsunfälle in der Zukunft präzise voraussagen?  Oder auch Krankheiten? Schliesslich sind Krankheitsverläufe – und damit digitale Daten von Patienten – längst nicht immer vollständig, einheitlich und aussagekräftig genug. [2]

Big, bigger, big data? Übertreibe nicht bei deinen Erfolgen.

Datenanalyse kann also lebensbedrohlich sein…

Gerade in der Medizin warnt nicht nur Gerd Antes vor dem Big Data und AI Hype. Wird eine falsche Behandlungsmethode aufgrund von Ergebnissen von Big Data Analysen und Machine Learning angewendet, können die Auswirkungen sehr gefährlich sein – für den Menschen, für das Portemonnaie und für die Reputation. Denn vielleicht werden bei dieser Riesenmenge an Daten die wahren Korrelationen und Ungereimtheiten gar nicht erst entdeckt. Korrelationen und Ungereimtheiten, die Leben bedrohen oder retten können. [2]

Erst kürzlich geriet IBM erneut in die Negativ-Schlagzeilen, als das Medienunternehmen STAT für einen Bericht IBM-interne Dokumente analysierte, welche konkludierten, dass Watson for Oncology wiederholt «unsichere und inkorrekte» Krebsbehandlungen empfohlen hatte. Ebenso besagten diese, dass IBM-Mitarbeiter und -Vorgesetzte davon in Kenntnis waren. Immerhin sei aufgrund dieser Empfehlungen noch kein nachgewiesener Todesfall aufgetreten, jedoch haben viele renommierte Spitäler beschlossen, die mehrere millionenteure Technologie nicht mehr einzusetzen. [3]

Insofern sind in diesem Bereich erste Anzeichen eines Umdenkens sowie eines wieder etwas rationaleren Vorgehens zu erkennen. Schliesslich ist auch der noch vor 2-3 Jahren scheinbar grenzenlose Hype um IBM‘s Wundercomputer Watson im Bereich Medizin wieder am Abklingen. Viele weitere, ähnliche Anwendungsgebiete werden folgen. Spätestens, wenn es wieder mehr um Fakten, belastbare Ergebnisse und Relevanz geht, und weniger um grossspurige Selbstvermarktung sowie vollmundige Versprechungen der bekannten globalen Tech-Konzerne und deren oft noch sehr experimentellen Produkte. Sicher ist, dass die vorgängig beschriebenen Erkenntnisse und Learnings aus der Medizin nahezu 1:1 auf den digitalen HR-Markt zu übertragen sind, wo diese beispielsweise beim Matching von Jobs und Talenten Anwendung finden.

 

Vertrauenswürdiges Wissen kommt von Experten

Schon vor über fünf Jahren provozierte Cornel Brücher mit seinem Werk «Rethink Big Data» und bezeichnete die Big Data Anhänger als Narren. [2] Wir bei JANZZ haben schon von Anfang an dies sehr ähnlich gesehen. So ist es schlichtweg nicht möglich, Wissen im Umfeld von Jobs und CV’s, komplexerer Occupation Data etc. mit Machine Learning allein zu erlangen. Alle, die etwas anderes behaupten, liegen nachweislich falsch. Und diese Behauptungen bleiben falsch und nutzlos, egal, wie oft man die gleichen Ideen und Produkte wieder neu anpreist und vermarktet. Und selbst dann noch, wenn noch viel mehr Geld als bereits bis anhin in diese Technologien investiert wird.

Deswegen und trotz der vielen Investitionen sind die Ergebnisse, die auf dieser immer gleichen Herangehensweise basieren, immer noch weitgehend unzureichend, und haben sich darüber hinaus während der letzten Jahre kaum noch weiter verbessert. Und zwar unabhängig davon, wie gross die dafür verwendeten Datensätze z.B. bei LinkedIn, IBM & Co. auch sein mögen. Die Ergebnisse aus Machine Learning werden nicht nur immer fehlerbehafteter je mehr Faktoren und Variablen und damit komplizierte Regeln und Relationen hinzukommen, es resultieren daraus auch diese falschen Korrelationen oder zeitweise sogar vermeintliche Kausalität. Knowledge Graphs, bzw. Ontologien dagegen schaffen die Möglichkeit, Wissen in einer sehr tiefgehenden und strukturierten Art und Weise abzubilden und zu nutzen. Dadurch, dass das Wissen von Experten in ihrem Bereich strukturiert abgelegt und verbunden ist – und nicht durch Informatiker berechnet, die nun mal Experten im Programmieren sind, aber beispielsweise nicht in der Medizin oder in unterschiedlichen Ingenieurberufen oder Investmentbanking-Bereichen etc.,  – ist das Wissen von Knowledge Graphs sehr gut überprüfbar und vertrauenswürdig. Eine wichtige Eigenschaft, die beim Errechnen aus Machine Learning fehlt. Da Knowledge Graphs die Zusammenhänge zwischen vielen verschiedenen Bereichen verstehen, können nur diese relevante und präzise Suchergebnisse und Empfehlungen liefern. So zum Beispiel im Bereich Occupation Data: Weil ein Knowledge Graph den Unterschied und die Zusammenhänge zwischen Kompetenzen, Erfahrungen, Funktionen, Spezialisierungen und Ausbildung erkennt, weiss dieser, dass für Jobtitel «J» mit Ausbildung «A», Kompetenz «K» wichtig ist. Nehmen wir als Beispiel einen «Senior Cloud Architect»: Ein Knowledge Graph erkennt diesen Jobtitel und weiss, dass beispielweise das Masterstudium «Computer Science» eines Tages zu diesem Titel führen könnte, wenn der Bewerber gleichzeitig beispielsweise die Kompetenz «Cloud Solution Development», sowie einige Jahre Berufserfahrung nachweisen kann.

 

Auch Google vertraut bei Occupation Data auf Experten bzw. auf einen Knowledge Graph

Dies proklamierte schliesslich auch Google, als das Unternehmen ihren Knowledge Graph «Google Cloud Jobs API» lancierte, worauf ihre Google for Jobs Suche aufbaut (Siehe „Google Launches its Ontology-powered Jobs Search Engine. What Now?“). Google erkannte damals, dass ein Ontologie-basierter Ansatz bessere Suchergebnisse liefert. Bei einer semantischen Suche, die sich auf das Wissen eines Knowledge Graphs stützt, kämen bei einer Suche eines «Admin Assistant» keine Ergebnisse hinzu, die nur dem Suchwort ähnlich sind, wie «HR Admin» oder «Software Admin». Gleichermassen könnte eine Big Data Analyse womöglich zufällige Korrelationen ermitteln und somit ganz andere, dritte Jobs vorschlagen, die lediglich ähnliche Kompetenz-Anforderungen aufweisen (so benötigen sicherlich sowohl Ingenieure als auch Büroangestellte Wissen über Microsoft Office).

Den Unterschied und damit wahrlich die Jobsuche und das allgemeine Verständnis für Berufe und ihre Zusammenhänge zu kennen, geht also meist nur mit einem Knowledge Graph. So erläuterte Matt Moore, Produktmanager der Google Cloud, den Sinn und Grund für die Google Cloud Jobs API: «Wir wollen allen Arbeitgebern und Bewerbern bessere Erfahrungen bei der Jobsuche ermöglichen. Denn seien wir ehrlich: Die richtigen Personen einzustellen, ist das Wichtigste, was Unternehmen tun müssen.« [4]

 

Nur Menschen verfügen über die nötigen Menschenkenntnisse…

Und da stellt sich die Frage, wem man wirklich vertrauen kann, wenn es um die wohl wichtigste Aufgabe geht: die Auswahl des Personals. Eine unendliche Geschichte: Nach dem Lebenslauf beurteilt, war der Bewerbende der perfekte Kandidat/die perfekte Kandidatin, doch menschlich passte es dann leider überhaupt nicht. Solche Schlussfolgerungen zu ziehen, die die verfügbaren (digitalen) Daten nicht suggerieren, bewegt sich auf einer Ebene, auf der HR-Spezialisten, sprich Menschen am Zug sind. Technologische Tools können Lebensläufe nach offensichtlichen Erkenntnissen wie Ausbildung, Skills, Erfahrung, etc. verwalten und ranken, falls die Datenflut beherrschbar ist und vor allem korrekt ausgewertet wird. Auch der beste Kandidat auf dem Papier kann durch die grossen Mengen an falsch interpretierten oder unverstandenen Kriterien plötzlich in der Menge verschwinden. Und CV Nr. 1 gehört eben nicht immer dem besten Kandidaten, bzw. der besten Kandidatin. Im festen Glauben daran, auch diesen letzten Rest Faktor Mensch endgültig aus den Prozessen zu verbannen, versuchen immer mehr Techfirmen und Start-ups diese Dimension noch zu digitalisieren und dank künstlicher Intelligenz zu beherrschen. Wiederum mit meist untauglichen Methoden und noch bevor die eigentlich prozessfähigen, bestehenden, digitalen Daten richtig verwendet und ausgewertet worden wären. Eine Tatsache, worüber sich die Spezialisten und führenden Anbieter von Technologien, die sich schon seit einigen Jahren mit seriösen und belastbaren Prozessen und Produkten im digitalen HR befassen, grundsätzlich einig sind. Und nicht erst seit Google auch in dieses Marktsegement eingetreten ist. [5]

 

Big Data begrenzt Wissensentwicklung

Mehr Daten bedeuten meist also wirklich nicht mehr Wissen. Wissen muss strukturiert, abgelegt und validiert werden. Und fachkundige Menschen müssen dafür involviert sein. Es ist somit Vorsicht geboten, bei der Bekämpfung der Datenflut, welche sich am Ende nicht mehr strukturieren lässt und zufällige Korrelationen ergibt. Alexander Wissner-Gross, Wissenschaftler an der Harvard University und am Massachusetts Institute of Technology (MIT), hat es interessant zusammengefasst: «Die vielleicht wichtigste Nachricht unserer Zeit ist, dass Datensätze – nicht Algorithmen – der entscheidende begrenzende Faktor für die Entwicklung der künstlichen Intelligenz auf menschlicher Ebene sein könnten.» [6]

Vielversprechend ist also vor allem der Inhalt des Wissens, nicht die Menge an Daten, woraus dieses Wissen entzogen werden soll. Und vielversprechend bzw. beruhigend ist, dass letztendlich in vielen wichtigen Bereichen wie der Medizin oder der Personalauswahl nur Experten oder auf echter Expertise basierende Tools zuverlässig und richtig urteilen können. All das macht den ganzen Hype um Big Data und AI im HR bereits etwas erträglicher. Und unsere Mission bei JANZZ.technology „We turn Big Data into Smart Data“ aktueller denn je.

 

[1] Brücher, Cornel. 2013. Rethink Big Data. Frechen: MITP-Verlag.

[2] Straumann, Felix. «Vieles ist blankes Marketing». Big Data. In: Tagesanzeiger (2018), Nr. 168, S. 32.

[3] Spitzer, Julie. 2018. IBM’s Watson recommended “unsafe and incorrect” cancer treatments, STAT report finds. URL: https://www.beckershospitalreview.com/artificial-intelligence/ibm-s-watson-recommended-unsafe-and-incorrect-cancer-treatments-stat-report-finds.html [2018.08.01].

[4] Aus Video: Google Cloud Platform. 2017. Google Cloud Jobs API: How to power your search for the best talent (Google Cloud Next ’17). URL: https://www.youtube.com/watch?v=Fr_8oNKtB98 [2018.08.03].

[5] Watson, Christine. 2018. RecTech is creating more – not less – need for the human touch. URL: http://www.daxtra.com/2018/08/03/rectech-creating-more-need-for-human-touch/?utm_content=75449136&utm_medium=social&utm_source=twitter [2018.08.09].

[6] Alexander Wissner-Gross. 2016. Datasets Over Algorithms. URL: https://www.edge.org/response-detail/26587 [2018.07.27].

Wie in 180 Tagen eine zeitgemässe und massgeschneiderte High-Performance-Lösung für PES bereitsteht

Public Employment Services (PES) kommen von Zeit zu Zeit an einen Punkt, an dem sie dazu gezwungen sind, ihre veralteten Systeme für die Arbeitssuche zu erneuern oder in Ländern, wo bisher noch überhaupt keine Lösungen vorhanden waren, diese ganz neu aufzusetzen. Mit der stark fortschreitenden Digitalisierung sind Ansprüche und Erwartungen an solche Lösungen sehr stark gestiegen: Durchgängige Prozesse, intelligentes Matching, umfassende Daten- und Arbeitsmarktanalysen, einfache Parsing- und Klassifizierungsmöglichkeiten und vieles mehr.
Solch tragfähige und performante Lösungen zu entwickeln und erfolgreich zu lancieren ist darum aufwendig. Die dafür nötigen Prozesse und Entwicklungsarbeiten können sich über mehrere Jahre erstrecken und sind kostspielig, vor allem für kleinere PES. Mit einer bewährten, skalierbaren White Label Plattform mit modernsten modularen Komponenten kann dieser Prozess für alle Ansprüche und Grössen von PES beschleunigt, vereinfacht und kosteneffizient realisiert werden. Wie dies funktioniert, möchten wir Ihnen im nachfolgenden Post kurz aufzeigen.

Modell Flickenteppich und viel, viel Zeit…

Eine solche Lösung wird häufig aus bestehenden, internen und neuen, zugekauften Komponenten zusammengestellt. Ein solches Modell kann durchaus funktionieren, erfordert jedoch viel Zeit, viel Budget und meist noch mehr an Aufwand. Viele PES flicken (entschuldigen Sie den Ausdruck, jedoch ist dies leider der Fall) sich somit ihre neue Lösung zusammen, da sie häufig einige bestehende Komponenten bereits einsetzen und gutes Personal wie Software-Ingenieure und Projektmanager ebenfalls bereitsteht. Aber wie oft haben diese in den letzten Jahren bereits eine solche zeitgemässe PES-Plattform mit allen notwendigen Prozessen und Komponenten entwickelt? Und wie gut sind die eigenen Datenspezialisten und Taxonomen auf die veränderten Anforderungen vorbereitet? Können sie die Daten und Inhalte in der gewünschten Form und Struktur für durchgängige, digitale Prozesse wie z.B. für ein Matching zur Verfügung stellen?

Die Entwicklung einer modernen und leistungsstarken Plattform, die ihre Arbeitssuchenden auf eine effektivere Weise mit dem Arbeitsmarkt zusammenbringt, ist für die Arbeitsvermittler in jedem Fall ein äusserst anspruchsvolles Unterfangen. Denn dies enthält viele einzelne, ebenso anspruchsvolle Teilprojekte. Für jede Komponente, die diese Plattform beinhalten soll, müssen meist sogar über öffentliche Ausschreibungsverfahren Zulieferer überprüft und getestet werden, und Inhouse-Lösungen müssen überarbeitet oder sogar vollständig neu entwickelt werden. Vom Matching bis zum Parsing Tool, über das Interface und UX bis hin zum Support-Chat. Schon die Beratung und Evaluation für jedes einzelne Tool und jeden Teilprozess schaffen langwierige Prozesse. Wer versteht diese Teillösung? Welcher Anbieter bietet den richtigen Ansatz und kann auch die nötige Erfahrung damit ausweisen?

Viel Recherche, viele Gespräche, viele Verhandlungen. Dabei sollte auch nicht vergessen werden, dass neue Technologien und Tools allein nicht als Retter in der Not fungieren können. Vielmehr müssen auch alle Prozesse angepasst werden. Die Jobvermittlung, das eigentliche Kerngeschäft der PES, hat sich bereits stark verändert. Alle fünf bis zehn Jahre müssen die Ansätze und Prozesse erneut verändert und überdacht werden. In Zukunft und mit der immer stärker fortschreitenden Digitalisierung und den Auswirkungen auf die Arbeitsmärkte, wohl eher noch häufiger.
Vom Projekt-Kickoff bis zur Liveschaltung der Lösung können so mehrere, wertvolle Jahre vergehen. Und manchmal ist die neue Lösung zum Zeitpunkt der Lancierung bereits wieder veraltet. Auf jeden Fall vergeht meist sehr viel Zeit, in der schon längst eine effiziente White-Label-Plattform laufen könnte.

Oft untestbar bis zum Launch

Nicht nur zeitlich ist dies eine grosse Herausforderung. Ein Vorgehen gemäss Modell Flickenteppich ist auch komplex und risikoreich. Die einzelnen Lösungskomponenten müssen entwickelt und in eine grosses Ganzes integriert werden. Teilweise in eine alte, bestehende Plattform oder Front-End. Oder diese wird sogar neu entwickelt und inhouse gebaut. Interne und externe Lieferanten verfügen dabei über kaum oder gar keine Kenntnisse über die Komponenten des jeweils anderen. Dies erschwert auch das Testing. Meist erst kurz vor der Liveschaltung kann getestet werden, wie die Komponenten im Detail zusammen funktionieren, denn es gibt keine Referenzen für eine solche Konstellation, die es in dieser Zusammenstellung und Funktionsweise bisher noch nicht gegeben hat.

Die Verlockung kann gross sein, einen Teil der Lösung (beispielsweise das Front-End) unter Einbezug eigener Entwicklungsressourcen zu bauen. Was in bestimmten Fällen Vorteile bringen kann, ist für einen Grossteil der Arbeitsvermittler nachhaltig mit Risiken und unvorhergesehenen Kosten verbunden. Anpassbare Off-The-Shelf-Lösungen hingegen bieten Stabilität, Zuverlässigkeit und Effizienz für die Bedienungsabläufe und auch den späteren Unterhalt.

Stabil, zuverlässig, effizient

Die Stabilität, die Weiterentwicklung und der spätere Unterhalt sind beim Modell Flickenteppich nicht vollständig gesichert, da Änderungen an der Software schwieriger möglich sind, wenn die Herzstücke der Lösung mehrheitlich über eine externe API laufen. Eigens entwickelte Lösungen müssen einen Software-Layer zur API implementieren. Werden Änderungen an der API vorgenommen (Minor oder Major), so müssen diese Änderungen in den entsprechenden Software-Modulen nachgezogen werden. Dies kann zu Instabilitäten und/oder Wartungsproblemen führen, falls dies zu spät erkannt oder gar nicht erst durchgeführt wird.

Auch kann nicht auf eine zuverlässige Performance vertraut werden. Durch den Verbund mehrerer Softwaresysteme steigt das Risiko von Fehlern. Zugleich wird die Lokalisierung des Fehlers und das Finden der Fehlerursache, oder die «Root Cause», komplexer, da zuerst isoliert werden muss, in welchem Bereich der Lösung der Fehler entstanden ist.

Eine bereits von anderen PES erfolgreich eingesetzte White-Label-Plattform bietet im Gegensatz auch in diesem Bereich entscheidende Vorteile, wenn es um den Bedienungskomfort, Effizienz und Customizing der Benutzerschnittstelle geht. Ausserdem bietet diese Lösung beispielsweise standardmässig bereits eine bedienerfreundliche Mobile-Benutzerschnittstelle mit Responsive Design und vieles mehr.

Letztendlich fallen viele Kosten weg wie beispielsweise für Wartung und Weiterentwicklung des selbstgebauten Teils und für Integrationen. Inhouse-Support ist kaum nötig, da diese Aufgabe hauptsächlich beim Plattform-Provider liegt, der alle Features seiner Plattform bestens kennt. Somit sind teure Neuanstellungen ebenfalls kaum oder gar nicht nötig. Zudem vergehen dann ja meist wieder 20 Jahre, bevor wieder eine neue Inhouse-Lösung konzipiert und entwickelt wird. Schwierig, die erfahrenen und qualifizierten Entwickler, Architekten, Taxonomen und UX-Spezialisten (von denen es überall viel zu Wenige gibt und welche von der Industrie heiss umworben sind…) zu halten und mit genügend interessanter Arbeit zu versorgen.

Eine einzige Lösung genügt

Die optimale Lösung von JANZZ.technology steht schon längst bereit: Eine anpassbare Plattform, in welche alle benötigten Features integriert sind und auf die individuellen Bedürfnisse aller PES, auch mit kleinerem Budget abgestimmt wurden. Die Lösung ist durchgängig getestet und gebaut mit langjährigem Know-How vieler anderer PES rund um den Globus. Sie ist multilingual verfügbar, mit ISCO-08, ESCO und natürlich allen landespezifischen Klassifikationen, sowie allen benötigten Design-, Prozess- und Farbkombinationen. Ob als DSGVO-konforme Cloud-Service-Lösung (welches Sie auch noch von anderen teuren Herausforderungen entbindet) oder als hochperformante On-Premise-Installation nach ihren Vorgaben.
Und die Plattform ist schnell und einfach verfügbar: Durch das bestehende, breite und bewährte Know-How von JANZZ.technology und den leichtanpassbaren Strukturen, UI und den aktuell wohl leistungsstärksten, semantischen Technikkomponenten etc. kann die Projektlaufzeit bis Implementation auf rund 180 Tage reduziert werden. Das bedeutet Budget- und Projektsicherheit und sehr, sehr kurze 180 Tage bis der erste Arbeitssuchende über das neue System vermittelt werden kann.

Wann dürfen wir Ihnen Ihre zukünftige Lösung einmal persönlich vorstellen?

sales@janzz.technology

Der MTESS hat eine fortschrittliche Plattform für Jobmatching präsentiert

Der Minister für Arbeit, Beschäftigung und soziale Sicherheit (MTESS), Dr. Guillermo Sosa, hat heute, am Mittwoch, 21. Februar, eine neue Plattform zur Verstärkung der Jobsuche in Paraguay präsentiert. Diese Plattform wurde von der Firma JANZZ.technology mit Sitz in der Schweiz entwickelt.

JANZZ.technology wird die Plattform ParaEmpleo.gov.com.py installieren, um die Beschäftigungsmöglichkeiten für Jugendliche auf der Suche nach einem Arbeitsplatz zu verbessern. Dies ist das erste Projekt der Firma in Lateinamerika. Neben Paraguay, bedient JANZZ.technology mehr als 150’000 Bewerber und Arbeitgeber in 5 Ländern in 40 verschiedenen Sprachen. Die Plattform enthält Fortschritte, welche es ermöglichen, verfügbare Arbeitsplätze und Arbeitssuchende zu finden, anhand einer Vielzahl von Dimensionen, darunter Soft Skills, Ausbildung, Erfahrung, zeitliche und geografische Verfügbarkeit sowie andere Variablen, die die Jobsuche verbessern. Die Plattform hat mehr als 100’000 Arbeitsstunden Entwicklungszeit und bringt ihre neue Version nach Paraguay.

Durch diese neue Webplattform mit dem Namen ParaEmpleo.gov.com.py, möchte das Arbeitsministerium die fortschrittlichste Technologie für Jobs-Matching anbieten. Bis heute haben sich über 25’000 Bewerber für die Datenbank «PARAGUAY PUEDE MÁS» registriert. Sobald den Aufnahmeprozess abgeschlossen ist, werden die Jugendlichen entsprechend ihrer Fähigkeiten und Fertigkeiten Zugang zu Stellenangeboten haben. Diese Vereinbarung wird im Rahmen des Programms zur Unterstützung der Arbeitseingliederung (PR-L1066) getroffen, das von der Interamerikanischen Entwicklungsbank im Rahmen eines Darlehensvertrags mit der Republik Paraguay finanziert wird.

Für weitere Informationen zu diesem Thema: blogs.iadb.org (Spanisch)

ESCO: Wir erwarteten eine Ontologie – wir bekamen eine enttäuschende Begriffsammlung

Da waren fast vier Jahre vergangen. Solange haben wir gewartet – gespannt, was da von der EU vollmundig angekündigt wurde. Immer gespannt, ob es altbekannte Probleme von Klassifikationssystemen löst.
Die Klassifizierung der Europäischen Union für berufsbezogene Daten nennt sich „ESCO“ (European Skills, Competences, Qualifications and Occupations). Klassifizierungen haben bisher alle Staaten je für sich gelöst, wie ROME in Frankreich oder KLdB in Deutschland oder CP in Italien. Meist basieren sie auf der Mutter aller Klassifizierungen, die International Standard Classification of Occupation (ISCO) der Internationalen Arbeitsorganisation um 1960. Vergleichbar sind diese jedoch nicht unbedingt – verschiedene Zahlen, Buchstaben und unterschiedlich viele Taxonomiestufen können die Klassifizierungen unterscheiden.

janzz_esco_unsatisfied

Andere Klassifizierungssysteme waren zu allererst zu Statistikgründen entwickelt worden. Damit konnte man also Berufe mit Identifikationsnummern in Gruppen zusammenfassen und so Zahlen erheben, das Verständnis für die einzelnen Berufe haben diese Systeme jedoch nicht ausgebaut. Denn die Gruppenzusammenstellungen waren häufig viel zu weit gefasst, zu generisch. Beispielsweise sind sämtliche Fachärzte in einer Gruppe zusammengestellt, und diese Gruppe ist aber nur mit einem einzigen Set an Skills für alle Fachärzte beschrieben. Dies bedeutet also, dass ein Onkologe mit genau den gleichen Fertigkeiten wie ein Gastroenterologe, ein Gynäkologe oder ein Pathologe beschrieben wird. Laut den Taxonomien haben sie somit genau die gleichen Kenntnisse, ihre Spezialisierungen erkennt man nur an ihrem Titel. Mit so ungenauen Beschreibungen kann man also sicher nicht besser einzelne Jobtitel verstehen.

Die EU wollte ESCO nicht als ein weiteres viel zu vages Gerüst fertigen, vielmehr sollte ein einheitliches Verständnis für Berufe, Fähigkeiten, Kenntnisse und Qualifikation erschaffen werden, über 26 Sprachen hinweg, damit Arbeitgeber, Arbeitnehmer und Bildungsinstitutionen besser die gegenseitigen Bedürfnisse und Anforderungen verstehen. Durch die freie Mobilität könnten sich so Qualifizierungslücken und die Arbeitslosigkeit in verschiedenen Mitgliedsstaaten ausgleichen, wie der Juncker meint [1].

Nun wurde fast vier Jahre seit der Testversion gearbeitet. Alle möglichen Stakeholder sollten beteiligt sein wie Arbeitsämter, Karriereberater, Statistiker, Wissenschaftler…, um diese Klassifizierung in 26 Sprachen zu erschaffen. Knapp vier Jahre wurde getestet, erweitert, verändert, überarbeitet… Und nun sitze ich hier an meinem PC, tippe als Fertigkeit „Word“ ein und die Datenbank erkennt den Begriff nicht. Einziger Alternativvorschlag: WordPress, wohl nicht sehr verwandt. Tippe ich „PowerPoint“ zeigt sich gähnende Fehlanzeige, die Datenbank erkennt den Begriff nicht, er ist nicht hinterlegt.

Gut, versuchen wir es ‘mal bei Indeed. Allein in Deutschland finde ich mit dem Suchbegriff „PowerPoint“ über 13000 Jobinserate, in Frankreich und im Vereinigten Königreich rund 8000. Europaweit ist PowerPoint jedoch nicht als Skill klassifiziert. Kein Platz unter 13485 Skills im ESCO. Soll ein Arbeitnehmer einen potenziellen Arbeitgeber also insoweit besser verstehen, dass PowerPoint keine wichtige Kenntnis für eine Beschäftigung darstellt?
Zugegebenermassen erkennt die Datenbank schon „Microsoft Office nutzen“, wenn „Microsoft“ eingegeben wird, weiter geht das semantische Verständnis der Datenbank jedoch nicht. Denn «Textverarbeitungsprogramme verwenden» ist sogar als eigenständige Fertigkeit ohne Verbindung zu Microsoft Office hinterlegt, keine der beiden Fertigkeiten schlagen sich als Synonym vor.

ESCO gibt an, ganze 2942 Berufen zu erkennen. Interessant dabei ist, dass das System einen „Logistikkoordinator Schienenverkehr“ [2] schon erkennt und auch gewisse alternative Schreibweisen anbietet, den Logistiker² jedoch nicht. Hier und dort finden sich immer wieder Berufe mit ähnlichen Krankheiten. Zudem wird als alternative Bezeichnung für eine/einen „Parteimitarbeiter/in“ auch “PR-Mitarbeiter/in“² vorgeschlagen. Nur um ein Beispiel zu nennen für eine fehlerhafte Jobtitel-Alternative.

ESCO soll nun auf 26 Sprachen laufen. Ja und Nein, finde ich heraus. Ja, die Jobtitel sind auf 26 Sprachen verfügbar, ja, die Kenntnisse ebenfalls. Die Erklärung eines Begriffs findet sich jedoch immer nur auf Englisch, welches heissen soll, dass ein Titel übersetzt werden kann in alle Sprachen, die Jobbeschreibung jedoch nicht. Sie verbleibt immer in der englischen Sprache verfasst. Ist nun fraglich, ob ein Arbeitgeber aus Frankreich den Beruf seines schwedischen Bewerbers besser versteht ohne Definition auf seiner Landessprache Französisch. Oder ob er versteht, ob die Klassifizierung wirklich mit seiner Vakanz übereinstimmt.

Ganz abgesehen davon, dass die Qualifikationen nur auf einer einzigen Sprache zugänglich sind: Griechisch. Auch die detaillierten Beschreibungen sind nur in dieser Landessprache auffindbar. Hiermit versteht ein Arbeitgeber eines anderen Mitgliedstaates jedenfalls seinen Bewerber nicht besser, selbst wenn dieser aus Griechenland stammen sollte. ESCO meldet selbst dazu, dass die Qualifikationen von den Mitgliedsstaaten geliefert werden müssen und zeitweise integriert werden. Da haben sich 27 Mitgliedsstaaten aber ziemlich viel Zeit gelassen.

Nun muss ich zusammenfassen, ich bin mehr als nur leise enttäuscht. Fast vier Jahre habe ich gewartet seitdem ich auf dem ESCO Kongress zusammen mit anderen die mannigfaltigen Möglichkeiten von Ontologien erklärt habe. Aber es ist keine Ontologie entstanden, vielmehr eine Taxonomie oder Sammlung an Begriffen. 2942 Berufe, 13485 Kenntnisse und 672 (griechische) Qualifikationen wurden in ESCO integriert, klassifiziert. ESCO hat vermeintlich finanziell und ganz sicher zeitlich immens investiert für diese Entwicklung. Aber ob das nun der Durchbruch zu Juncker’s Zielsetzung ist, ist grundlegend fraglich.

Und die Frage ist jetzt: Was machen wir nun? Hoffen und weitere vier Jahre warten bis ESCO vielleicht die Ansprüche des HR-Bereichs und der Public Employment Services erfüllen könnte? Oder vielleicht lieber nach einer Alternative umschauen? Wie wäre es beispielsweise mit einer Alternative, die eine wahre Ontologie mit semantischer Erkennung darstellt. Die erkennt, dass ein/e Parteimitarbeiter/in nicht das gleiche wie ein/e PR-Mitarbeiter/in macht. Die weiss, dass MS Word die gleiche Fertigkeit wie Microsoft Word oder Textverarbeitung darstellt. Und die viele Sprachen vollständig enthält. Wer weiss, vielleicht gibt es so etwas ja bereits. Vielleicht könnte eine Onlinerecherche danach erfolgreich sein. Zum Beispiel auf http://janzz.technology.

[1] ESCO (2015). ESCO strategic framework. Vision, mission, position, added value and guiding principles. Brüssel.

[2] Für diese Recherche wurde nur die Online-Datenbank von ESCO genutzt.