Schützt die jungen Menschen: Wie Arbeitsunfälle und Krankheiten weltweit Leben und Geld kosten

Junge Menschen sind wesentlich häufiger von Arbeitsunfällen und gesundheitliche Problemen durch ihre Arbeit betroffen als ältere Mitarbeitende. Nach Angaben der Europäischen Agentur für Sicherheit und Gesundheitsschutz sind sie sogar bis zu 40 % anfälliger für arbeitsbedingte Verletzungen. Junge Mitarbeiter müssen vom Arbeitgeber also wesentlich besser geschützt und geschult werden.

Die Vereinten Nationen definieren junge Arbeiter als Arbeitskräfte zwischen 15 und 24 Jahren. Hierbei ist es gleich, was für einer Arbeit sie nachgehen, ob sie festangestellt sind, sich in einem Lehrverhältnis oder Praktikum befinden oder das Familiengeschäft unterstützen. Es gibt weltweit 541 Millionen junge Mitarbeitende, welche 15 % der Erwerbsbevölkerung ausmachen.

Viele Menschen arbeiten unter gefährlichen Bedingungen. Insbesondere in Bereichen wie der Landwirtschaft, im Bau oder in der Produktion werden viele Arbeitsunfälle gemeldet. Laut der Internationalen Arbeitsorganisation (ILO) erlitten in einem Jahr 374 Millionen Mitarbeitende weltweit Arbeitsunfälle. In Europa wurden allein 2015 knapp 3900 sog. fatale Arbeitsunfälle verzeichnet. So werden Unfälle mit Todesfolge bezeichnet.

Mitarbeiter müssen umfangreich geschult werden.

Junge Menschen sind insbesondere von den hohen Gefahren betroffen, weil sie noch nicht über die gleichen Kompetenzen und die Erfahrung verfügen wie ältere Angestellte. Sie können also die Gefahren schlechter einschätzen und haben noch nicht das Wissen erhalten, wie sie den Gefahren vorbeugen können, bzw. diese vermindern. Gleichzeitig sind ihre Körper und Gehirne noch nicht vollentwickelt. Ein Beispiel hierfür ist der Frontalkortex, in welchem Vernunft und Urteilsfähigkeit ihren Sitz haben, und der sich erst ganz am Schluss, meist erst nach 20 vollständig entwickelt. Viele Geräte und Werkzeuge sind für die Handhabung von Erwachsenen gebaut, und somit verletzen sich die jungen Menschen daran leichter. Ebenso sind Reaktionen des Körpers auf Schadstoffe stärker. Letztendlich sind junge Mitarbeitende auch häufig nicht in der Lage dazu, auf Missstände hinzuweisen, da sie sie weder erkennen, noch dass sie sich trauen, etwas gegen ihren Arbeitgeber zu verbreiten.

Allgemein ist die Wahrscheinlichkeit für einen Arbeitsunfall vier Mal so hoch im ersten Monat eines Jobs als im gesamten folgenden Jahr. Diese Wahrscheinlichkeit steigt nun noch einmal enorm bei jungen Arbeitenden, da diese im ersten Monat fünf Mal so hoch ist wie bei älteren Arbeitenden. So nennt die Europäische Agentur für Sicherheit und Gesundheitsschutz am Arbeitsplatz als Beispiel einen Fall eines 18-Jährigen, der nach vier Tagen Ausbildung an Verbrennungen starb, die er sich bei der Entsorgung von Benzin und Diesel zuzog. Sein Arbeitgeber hatte weder mit ihm noch anderen Mitarbeitenden grundlegende Sicherheitsschulungen durchgeführt.

Aufgrund von dieser und vielen weiteren Erfahrungen weist die Agentur auf die Wichtigkeit von Sicherheits- und Gesundheitsschulungen insbesondere für junge Mitarbeitende hin. So rät sie dazu, unter anderem umfassend über häufige und spezielle Gefahren, Möglichkeiten des Selbstschutzes, Ansprechpartner bei Gefährdungen, sowie Handlungen im Notfall zu informieren und zu beraten. Ebenso empfiehlt sie, Aufsichtspersonen spezifisch auf dem Umgang mit jungen Mitarbeitenden zu schulen, da bei diesen u.a. nicht die gleiche Umsicht zu erwarten ist wie bei älteren Mitarbeitenden. Gesetzlich ist ebenfalls in vielen Ländern festgelegt, dass der Arbeitgeber Gefahren ermitteln, Risiken beurteilen und diesen mit Massnahmen vorbeugen muss.

Schliesslich geht durch mangelhafte Arbeitssicherheit viel verloren. Die Internationale Arbeitsorganisation (ILO) geht davon aus, dass mangelhafte Arbeitsschutzverhältnisse rund 4 % des globalen BIP pro Jahr kosten. Unternehmen und Wirtschaft sind stark von Arbeitsunfällen betroffen, da mögliche Gefahren bereits die Produktivität verringern können, und von Unfall und Krankheit betroffene Mitarbeitende arbeitsunfähig sind. Ebenso fallen möglicherweise Investitionen in die Arbeitsplatzanpassung nach einer möglichen Behinderung der betroffenen Mitarbeitenden an. Nicht zuletzt sollte nicht vergessen werden, dass Arbeitsunfälle ein Leben lang Karrierechancen, die soziale Sicherheit und das grundsätzliche Wohlbefinden von (jungen) Menschen zerstören können. Schulungen und Investitionen lohnen sich demnach lang- und kurzfristig für Arbeitgeber und Arbeitnehmer.

Jedoch sollten bereits in einer Jobanzeige die wichtigsten Sicherheitshinweise aufgezeigt werden. Dies stellt den neuen jungen Mitarbeitenden bereits auf die Verhältnisse vor Ort ein und sorgt somit von Anfang an für eine erhöhte Umsicht. Mit dem Knowledge Graph JANZZon! und den weitentwickelten, mehrsprachigen Typeahead API’s können bereits Jobanzeigen von Berufen mit einem besonders hohen Risikopotenzial oder einem überdurchschnittlichen Anteil von jungen Arbeitnehmenden bei der Erfassung mit erforderlichen Sicherheitsskills semantisch sinnvoll angereichert werden bzw. die nötigen Informationen und Fähigkeiten in die Einstellungs- und Einarbeitungsprozesse integriert werden.

Immer noch mehr Lärm um nichts… oder warum der Hype um Big Data und AI meist mehr mit Selbstvermarktung als mit Fakten und Fortschritt zu tun hat.

Wir produzieren alle zwei Tage die Menge an Daten, die vorher insgesamt bis zum Jahr 2003 produziert wurde. Mit diesem Faktum schockierte der ehemalige CEO Googles, Eric Schmidt, schon 2010. Seitdem hat sich die Datenproduktion natürlich noch beschleunigt. Obwohl «Massendatenverarbeitung» zwar nichts Neues ist, ist erst in den letzten Jahren der Hype um den bekannteren Begriff «Big Data» richtig entfacht [1]. Doch viel zu schnell verlieren sich viele in diesem immer grösseren Daten-Dschungel und abstrusen Methoden.

 

Zufälle können nicht errechnet werden

Denn «Mehr Daten bedeutet eben nicht mehr Wissen», proklamiert Gerd Antes prägnant im Interview mit dem Tagesanzeiger. Der Mathematiker kritisiert den Rummel um Big Data Nutzung scharf, denn durch die Masse an Daten würden zufällige Korrelationen wahrscheinlicher. So zeigen der Pro-Kopf-Käsekonsum und die Anzahl Toter durch Verheddern im Bettlaken in den USA eine identische Kurve auf. Während eine maschinelle Analyse möglicherweise Rückschlüsse daraus gezogen hätte, erkennt ein menschlicher Wissenschaftler sofort, dass dies ein Zufall ist. [2]

Zufälle gibt es jedoch laut vielen Big Data Anhängern nicht mehr. Wenn genügend grosse Datenmengen verfügbar sind, meinen diese Anhänger nun, dass damit auch sämtliche Zusammenhänge vorausberechnet werden können.  Und zwar mithilfe von Machine oder Deep Learning sowie den richtigen Analysen. Die Erfahrung und verfügbaren Trainingssets (aus der Vergangenheit) würden dafür vollends ausreichen, und Fehlerbereiche aufgrund fehlender oder irrelevanter Daten gebe es kaum oder keine. Dieser Rückschluss ist doch überaus fatal. Natürlich können gewisse Bereiche, Zeiträume und Zusammenhänge, etc. für die etwas eher oder weniger wahrscheinlich eintritt, leichter erschlossen werden. Jedoch bedeutet dies noch lange nicht, dass deshalb keine Zufälle bzw. wesentliche Abweichungen möglich sind. Wie soll beispielsweise eine Analyse gesammelter Daten aus der Vergangenheit Verkehrsunfälle in der Zukunft präzise voraussagen?  Oder auch Krankheiten? Schliesslich sind Krankheitsverläufe – und damit digitale Daten von Patienten – längst nicht immer vollständig, einheitlich und aussagekräftig genug. [2]

Big, bigger, big data? Übertreibe nicht bei deinen Erfolgen.

Datenanalyse kann also lebensbedrohlich sein…

Gerade in der Medizin warnt nicht nur Gerd Antes vor dem Big Data und AI Hype. Wird eine falsche Behandlungsmethode aufgrund von Ergebnissen von Big Data Analysen und Machine Learning angewendet, können die Auswirkungen sehr gefährlich sein – für den Menschen, für das Portemonnaie und für die Reputation. Denn vielleicht werden bei dieser Riesenmenge an Daten die wahren Korrelationen und Ungereimtheiten gar nicht erst entdeckt. Korrelationen und Ungereimtheiten, die Leben bedrohen oder retten können. [2]

Erst kürzlich geriet IBM erneut in die Negativ-Schlagzeilen, als das Medienunternehmen STAT für einen Bericht IBM-interne Dokumente analysierte, welche konkludierten, dass Watson for Oncology wiederholt «unsichere und inkorrekte» Krebsbehandlungen empfohlen hatte. Ebenso besagten diese, dass IBM-Mitarbeiter und -Vorgesetzte davon in Kenntnis waren. Immerhin sei aufgrund dieser Empfehlungen noch kein nachgewiesener Todesfall aufgetreten, jedoch haben viele renommierte Spitäler beschlossen, die mehrere millionenteure Technologie nicht mehr einzusetzen. [3]

Insofern sind in diesem Bereich erste Anzeichen eines Umdenkens sowie eines wieder etwas rationaleren Vorgehens zu erkennen. Schliesslich ist auch der noch vor 2-3 Jahren scheinbar grenzenlose Hype um IBM‘s Wundercomputer Watson im Bereich Medizin wieder am Abklingen. Viele weitere, ähnliche Anwendungsgebiete werden folgen. Spätestens, wenn es wieder mehr um Fakten, belastbare Ergebnisse und Relevanz geht, und weniger um grossspurige Selbstvermarktung sowie vollmundige Versprechungen der bekannten globalen Tech-Konzerne und deren oft noch sehr experimentellen Produkte. Sicher ist, dass die vorgängig beschriebenen Erkenntnisse und Learnings aus der Medizin nahezu 1:1 auf den digitalen HR-Markt zu übertragen sind, wo diese beispielsweise beim Matching von Jobs und Talenten Anwendung finden.

 

Vertrauenswürdiges Wissen kommt von Experten

Schon vor über fünf Jahren provozierte Cornel Brücher mit seinem Werk «Rethink Big Data» und bezeichnete die Big Data Anhänger als Narren. [2] Wir bei JANZZ haben schon von Anfang an dies sehr ähnlich gesehen. So ist es schlichtweg nicht möglich, Wissen im Umfeld von Jobs und CV’s, komplexerer Occupation Data etc. mit Machine Learning allein zu erlangen. Alle, die etwas anderes behaupten, liegen nachweislich falsch. Und diese Behauptungen bleiben falsch und nutzlos, egal, wie oft man die gleichen Ideen und Produkte wieder neu anpreist und vermarktet. Und selbst dann noch, wenn noch viel mehr Geld als bereits bis anhin in diese Technologien investiert wird.

Deswegen und trotz der vielen Investitionen sind die Ergebnisse, die auf dieser immer gleichen Herangehensweise basieren, immer noch weitgehend unzureichend, und haben sich darüber hinaus während der letzten Jahre kaum noch weiter verbessert. Und zwar unabhängig davon, wie gross die dafür verwendeten Datensätze z.B. bei LinkedIn, IBM & Co. auch sein mögen. Die Ergebnisse aus Machine Learning werden nicht nur immer fehlerbehafteter je mehr Faktoren und Variablen und damit komplizierte Regeln und Relationen hinzukommen, es resultieren daraus auch diese falschen Korrelationen oder zeitweise sogar vermeintliche Kausalität. Knowledge Graphs, bzw. Ontologien dagegen schaffen die Möglichkeit, Wissen in einer sehr tiefgehenden und strukturierten Art und Weise abzubilden und zu nutzen. Dadurch, dass das Wissen von Experten in ihrem Bereich strukturiert abgelegt und verbunden ist – und nicht durch Informatiker berechnet, die nun mal Experten im Programmieren sind, aber beispielsweise nicht in der Medizin oder in unterschiedlichen Ingenieurberufen oder Investmentbanking-Bereichen etc.,  – ist das Wissen von Knowledge Graphs sehr gut überprüfbar und vertrauenswürdig. Eine wichtige Eigenschaft, die beim Errechnen aus Machine Learning fehlt. Da Knowledge Graphs die Zusammenhänge zwischen vielen verschiedenen Bereichen verstehen, können nur diese relevante und präzise Suchergebnisse und Empfehlungen liefern. So zum Beispiel im Bereich Occupation Data: Weil ein Knowledge Graph den Unterschied und die Zusammenhänge zwischen Kompetenzen, Erfahrungen, Funktionen, Spezialisierungen und Ausbildung erkennt, weiss dieser, dass für Jobtitel «J» mit Ausbildung «A», Kompetenz «K» wichtig ist. Nehmen wir als Beispiel einen «Senior Cloud Architect»: Ein Knowledge Graph erkennt diesen Jobtitel und weiss, dass beispielweise das Masterstudium «Computer Science» eines Tages zu diesem Titel führen könnte, wenn der Bewerber gleichzeitig beispielsweise die Kompetenz «Cloud Solution Development», sowie einige Jahre Berufserfahrung nachweisen kann.

 

Auch Google vertraut bei Occupation Data auf Experten bzw. auf einen Knowledge Graph

Dies proklamierte schliesslich auch Google, als das Unternehmen ihren Knowledge Graph «Google Cloud Jobs API» lancierte, worauf ihre Google for Jobs Suche aufbaut (Siehe „Google Launches its Ontology-powered Jobs Search Engine. What Now?“). Google erkannte damals, dass ein Ontologie-basierter Ansatz bessere Suchergebnisse liefert. Bei einer semantischen Suche, die sich auf das Wissen eines Knowledge Graphs stützt, kämen bei einer Suche eines «Admin Assistant» keine Ergebnisse hinzu, die nur dem Suchwort ähnlich sind, wie «HR Admin» oder «Software Admin». Gleichermassen könnte eine Big Data Analyse womöglich zufällige Korrelationen ermitteln und somit ganz andere, dritte Jobs vorschlagen, die lediglich ähnliche Kompetenz-Anforderungen aufweisen (so benötigen sicherlich sowohl Ingenieure als auch Büroangestellte Wissen über Microsoft Office).

Den Unterschied und damit wahrlich die Jobsuche und das allgemeine Verständnis für Berufe und ihre Zusammenhänge zu kennen, geht also meist nur mit einem Knowledge Graph. So erläuterte Matt Moore, Produktmanager der Google Cloud, den Sinn und Grund für die Google Cloud Jobs API: «Wir wollen allen Arbeitgebern und Bewerbern bessere Erfahrungen bei der Jobsuche ermöglichen. Denn seien wir ehrlich: Die richtigen Personen einzustellen, ist das Wichtigste, was Unternehmen tun müssen.« [4]

 

Nur Menschen verfügen über die nötigen Menschenkenntnisse…

Und da stellt sich die Frage, wem man wirklich vertrauen kann, wenn es um die wohl wichtigste Aufgabe geht: die Auswahl des Personals. Eine unendliche Geschichte: Nach dem Lebenslauf beurteilt, war der Bewerbende der perfekte Kandidat/die perfekte Kandidatin, doch menschlich passte es dann leider überhaupt nicht. Solche Schlussfolgerungen zu ziehen, die die verfügbaren (digitalen) Daten nicht suggerieren, bewegt sich auf einer Ebene, auf der HR-Spezialisten, sprich Menschen am Zug sind. Technologische Tools können Lebensläufe nach offensichtlichen Erkenntnissen wie Ausbildung, Skills, Erfahrung, etc. verwalten und ranken, falls die Datenflut beherrschbar ist und vor allem korrekt ausgewertet wird. Auch der beste Kandidat auf dem Papier kann durch die grossen Mengen an falsch interpretierten oder unverstandenen Kriterien plötzlich in der Menge verschwinden. Und CV Nr. 1 gehört eben nicht immer dem besten Kandidaten, bzw. der besten Kandidatin. Im festen Glauben daran, auch diesen letzten Rest Faktor Mensch endgültig aus den Prozessen zu verbannen, versuchen immer mehr Techfirmen und Start-ups diese Dimension noch zu digitalisieren und dank künstlicher Intelligenz zu beherrschen. Wiederum mit meist untauglichen Methoden und noch bevor die eigentlich prozessfähigen, bestehenden, digitalen Daten richtig verwendet und ausgewertet worden wären. Eine Tatsache, worüber sich die Spezialisten und führenden Anbieter von Technologien, die sich schon seit einigen Jahren mit seriösen und belastbaren Prozessen und Produkten im digitalen HR befassen, grundsätzlich einig sind. Und nicht erst seit Google auch in dieses Marktsegement eingetreten ist. [5]

 

Big Data begrenzt Wissensentwicklung

Mehr Daten bedeuten meist also wirklich nicht mehr Wissen. Wissen muss strukturiert, abgelegt und validiert werden. Und fachkundige Menschen müssen dafür involviert sein. Es ist somit Vorsicht geboten, bei der Bekämpfung der Datenflut, welche sich am Ende nicht mehr strukturieren lässt und zufällige Korrelationen ergibt. Alexander Wissner-Gross, Wissenschaftler an der Harvard University und am Massachusetts Institute of Technology (MIT), hat es interessant zusammengefasst: «Die vielleicht wichtigste Nachricht unserer Zeit ist, dass Datensätze – nicht Algorithmen – der entscheidende begrenzende Faktor für die Entwicklung der künstlichen Intelligenz auf menschlicher Ebene sein könnten.» [6]

Vielversprechend ist also vor allem der Inhalt des Wissens, nicht die Menge an Daten, woraus dieses Wissen entzogen werden soll. Und vielversprechend bzw. beruhigend ist, dass letztendlich in vielen wichtigen Bereichen wie der Medizin oder der Personalauswahl nur Experten oder auf echter Expertise basierende Tools zuverlässig und richtig urteilen können. All das macht den ganzen Hype um Big Data und AI im HR bereits etwas erträglicher. Und unsere Mission bei JANZZ.technology „We turn Big Data into Smart Data“ aktueller denn je.

 

[1] Brücher, Cornel. 2013. Rethink Big Data. Frechen: MITP-Verlag.

[2] Straumann, Felix. «Vieles ist blankes Marketing». Big Data. In: Tagesanzeiger (2018), Nr. 168, S. 32.

[3] Spitzer, Julie. 2018. IBM’s Watson recommended “unsafe and incorrect” cancer treatments, STAT report finds. URL: https://www.beckershospitalreview.com/artificial-intelligence/ibm-s-watson-recommended-unsafe-and-incorrect-cancer-treatments-stat-report-finds.html [2018.08.01].

[4] Aus Video: Google Cloud Platform. 2017. Google Cloud Jobs API: How to power your search for the best talent (Google Cloud Next ’17). URL: https://www.youtube.com/watch?v=Fr_8oNKtB98 [2018.08.03].

[5] Watson, Christine. 2018. RecTech is creating more – not less – need for the human touch. URL: http://www.daxtra.com/2018/08/03/rectech-creating-more-need-for-human-touch/?utm_content=75449136&utm_medium=social&utm_source=twitter [2018.08.09].

[6] Alexander Wissner-Gross. 2016. Datasets Over Algorithms. URL: https://www.edge.org/response-detail/26587 [2018.07.27].

Wie in 180 Tagen eine zeitgemässe und massgeschneiderte High-Performance-Lösung für PES bereitsteht

Public Employment Services (PES) kommen von Zeit zu Zeit an einen Punkt, an dem sie dazu gezwungen sind, ihre veralteten Systeme für die Arbeitssuche zu erneuern oder in Ländern, wo bisher noch überhaupt keine Lösungen vorhanden waren, diese ganz neu aufzusetzen. Mit der stark fortschreitenden Digitalisierung sind Ansprüche und Erwartungen an solche Lösungen sehr stark gestiegen: Durchgängige Prozesse, intelligentes Matching, umfassende Daten- und Arbeitsmarktanalysen, einfache Parsing- und Klassifizierungsmöglichkeiten und vieles mehr.
Solch tragfähige und performante Lösungen zu entwickeln und erfolgreich zu lancieren ist darum aufwendig. Die dafür nötigen Prozesse und Entwicklungsarbeiten können sich über mehrere Jahre erstrecken und sind kostspielig, vor allem für kleinere PES. Mit einer bewährten, skalierbaren White Label Plattform mit modernsten modularen Komponenten kann dieser Prozess für alle Ansprüche und Grössen von PES beschleunigt, vereinfacht und kosteneffizient realisiert werden. Wie dies funktioniert, möchten wir Ihnen im nachfolgenden Post kurz aufzeigen.

Modell Flickenteppich und viel, viel Zeit…

Eine solche Lösung wird häufig aus bestehenden, internen und neuen, zugekauften Komponenten zusammengestellt. Ein solches Modell kann durchaus funktionieren, erfordert jedoch viel Zeit, viel Budget und meist noch mehr an Aufwand. Viele PES flicken (entschuldigen Sie den Ausdruck, jedoch ist dies leider der Fall) sich somit ihre neue Lösung zusammen, da sie häufig einige bestehende Komponenten bereits einsetzen und gutes Personal wie Software-Ingenieure und Projektmanager ebenfalls bereitsteht. Aber wie oft haben diese in den letzten Jahren bereits eine solche zeitgemässe PES-Plattform mit allen notwendigen Prozessen und Komponenten entwickelt? Und wie gut sind die eigenen Datenspezialisten und Taxonomen auf die veränderten Anforderungen vorbereitet? Können sie die Daten und Inhalte in der gewünschten Form und Struktur für durchgängige, digitale Prozesse wie z.B. für ein Matching zur Verfügung stellen?

Die Entwicklung einer modernen und leistungsstarken Plattform, die ihre Arbeitssuchenden auf eine effektivere Weise mit dem Arbeitsmarkt zusammenbringt, ist für die Arbeitsvermittler in jedem Fall ein äusserst anspruchsvolles Unterfangen. Denn dies enthält viele einzelne, ebenso anspruchsvolle Teilprojekte. Für jede Komponente, die diese Plattform beinhalten soll, müssen meist sogar über öffentliche Ausschreibungsverfahren Zulieferer überprüft und getestet werden, und Inhouse-Lösungen müssen überarbeitet oder sogar vollständig neu entwickelt werden. Vom Matching bis zum Parsing Tool, über das Interface und UX bis hin zum Support-Chat. Schon die Beratung und Evaluation für jedes einzelne Tool und jeden Teilprozess schaffen langwierige Prozesse. Wer versteht diese Teillösung? Welcher Anbieter bietet den richtigen Ansatz und kann auch die nötige Erfahrung damit ausweisen?

Viel Recherche, viele Gespräche, viele Verhandlungen. Dabei sollte auch nicht vergessen werden, dass neue Technologien und Tools allein nicht als Retter in der Not fungieren können. Vielmehr müssen auch alle Prozesse angepasst werden. Die Jobvermittlung, das eigentliche Kerngeschäft der PES, hat sich bereits stark verändert. Alle fünf bis zehn Jahre müssen die Ansätze und Prozesse erneut verändert und überdacht werden. In Zukunft und mit der immer stärker fortschreitenden Digitalisierung und den Auswirkungen auf die Arbeitsmärkte, wohl eher noch häufiger.
Vom Projekt-Kickoff bis zur Liveschaltung der Lösung können so mehrere, wertvolle Jahre vergehen. Und manchmal ist die neue Lösung zum Zeitpunkt der Lancierung bereits wieder veraltet. Auf jeden Fall vergeht meist sehr viel Zeit, in der schon längst eine effiziente White-Label-Plattform laufen könnte.

Oft untestbar bis zum Launch

Nicht nur zeitlich ist dies eine grosse Herausforderung. Ein Vorgehen gemäss Modell Flickenteppich ist auch komplex und risikoreich. Die einzelnen Lösungskomponenten müssen entwickelt und in eine grosses Ganzes integriert werden. Teilweise in eine alte, bestehende Plattform oder Front-End. Oder diese wird sogar neu entwickelt und inhouse gebaut. Interne und externe Lieferanten verfügen dabei über kaum oder gar keine Kenntnisse über die Komponenten des jeweils anderen. Dies erschwert auch das Testing. Meist erst kurz vor der Liveschaltung kann getestet werden, wie die Komponenten im Detail zusammen funktionieren, denn es gibt keine Referenzen für eine solche Konstellation, die es in dieser Zusammenstellung und Funktionsweise bisher noch nicht gegeben hat.

Die Verlockung kann gross sein, einen Teil der Lösung (beispielsweise das Front-End) unter Einbezug eigener Entwicklungsressourcen zu bauen. Was in bestimmten Fällen Vorteile bringen kann, ist für einen Grossteil der Arbeitsvermittler nachhaltig mit Risiken und unvorhergesehenen Kosten verbunden. Anpassbare Off-The-Shelf-Lösungen hingegen bieten Stabilität, Zuverlässigkeit und Effizienz für die Bedienungsabläufe und auch den späteren Unterhalt.

Stabil, zuverlässig, effizient

Die Stabilität, die Weiterentwicklung und der spätere Unterhalt sind beim Modell Flickenteppich nicht vollständig gesichert, da Änderungen an der Software schwieriger möglich sind, wenn die Herzstücke der Lösung mehrheitlich über eine externe API laufen. Eigens entwickelte Lösungen müssen einen Software-Layer zur API implementieren. Werden Änderungen an der API vorgenommen (Minor oder Major), so müssen diese Änderungen in den entsprechenden Software-Modulen nachgezogen werden. Dies kann zu Instabilitäten und/oder Wartungsproblemen führen, falls dies zu spät erkannt oder gar nicht erst durchgeführt wird.

Auch kann nicht auf eine zuverlässige Performance vertraut werden. Durch den Verbund mehrerer Softwaresysteme steigt das Risiko von Fehlern. Zugleich wird die Lokalisierung des Fehlers und das Finden der Fehlerursache, oder die «Root Cause», komplexer, da zuerst isoliert werden muss, in welchem Bereich der Lösung der Fehler entstanden ist.

Eine bereits von anderen PES erfolgreich eingesetzte White-Label-Plattform bietet im Gegensatz auch in diesem Bereich entscheidende Vorteile, wenn es um den Bedienungskomfort, Effizienz und Customizing der Benutzerschnittstelle geht. Ausserdem bietet diese Lösung beispielsweise standardmässig bereits eine bedienerfreundliche Mobile-Benutzerschnittstelle mit Responsive Design und vieles mehr.

Letztendlich fallen viele Kosten weg wie beispielsweise für Wartung und Weiterentwicklung des selbstgebauten Teils und für Integrationen. Inhouse-Support ist kaum nötig, da diese Aufgabe hauptsächlich beim Plattform-Provider liegt, der alle Features seiner Plattform bestens kennt. Somit sind teure Neuanstellungen ebenfalls kaum oder gar nicht nötig. Zudem vergehen dann ja meist wieder 20 Jahre, bevor wieder eine neue Inhouse-Lösung konzipiert und entwickelt wird. Schwierig, die erfahrenen und qualifizierten Entwickler, Architekten, Taxonomen und UX-Spezialisten (von denen es überall viel zu Wenige gibt und welche von der Industrie heiss umworben sind…) zu halten und mit genügend interessanter Arbeit zu versorgen.

Eine einzige Lösung genügt

Die optimale Lösung von JANZZ.technology steht schon längst bereit: Eine anpassbare Plattform, in welche alle benötigten Features integriert sind und auf die individuellen Bedürfnisse aller PES, auch mit kleinerem Budget abgestimmt wurden. Die Lösung ist durchgängig getestet und gebaut mit langjährigem Know-How vieler anderer PES rund um den Globus. Sie ist multilingual verfügbar, mit ISCO-08, ESCO und natürlich allen landespezifischen Klassifikationen, sowie allen benötigten Design-, Prozess- und Farbkombinationen. Ob als DSGVO-konforme Cloud-Service-Lösung (welches Sie auch noch von anderen teuren Herausforderungen entbindet) oder als hochperformante On-Premise-Installation nach ihren Vorgaben.
Und die Plattform ist schnell und einfach verfügbar: Durch das bestehende, breite und bewährte Know-How von JANZZ.technology und den leichtanpassbaren Strukturen, UI und den aktuell wohl leistungsstärksten, semantischen Technikkomponenten etc. kann die Projektlaufzeit bis Implementation auf rund 180 Tage reduziert werden. Das bedeutet Budget- und Projektsicherheit und sehr, sehr kurze 180 Tage bis der erste Arbeitssuchende über das neue System vermittelt werden kann.

Wann dürfen wir Ihnen Ihre zukünftige Lösung einmal persönlich vorstellen?

sales@janzz.technology

Change or die –
Vier Problemfelder für die vielgesichtige Zukunft von PES

Es ist das dominierende Thema heutzutage in den digitalen HR-Prozessen: Wie können für das Matching effizientere, zeitgemässere sowie bessere Tools und Technologien entwickelt werden, welche die vielseitigen Aufgaben und Herausforderungen kundenorientierter lösen. Die Spreu vom Weizen zu trennen, ist dabei schon eine sehr anspruchsvolle Aufgabe. Wenn die technologische Wahl in der heutigen Zeit nicht bereit ist, die Zukunft mitzugestalten, hat dies starke Auswirkungen auf das Matching. Vor allem aber werden Probleme in der Zukunft forciert. Denn Matching bedeutet Verständnis. Verständnis dafür, welchen Herausforderungen sich ein Arbeitsmarkt stellen muss. Alle Anbieter von Job-Matching-Technologien sind der Meinung, sie seien in der Lage, die Arbeitssuchenden zu vermitteln und somit den Arbeitsmarkt zu beleben. Doch es gibt nicht den Arbeitsmarkt. Jeder Arbeitsmarkt hat seine Charakteristiken und nur weil möglichst viele Menschen schnell vermittelt sind, ist es damit noch nicht getan: Es sind nämlich andere, vielschichtige Probleme, denen wir ins Auge blicken müssen. Aus diesem komplexen Thema wurden vier Problemfelder ausgewählt, welche aufzeigen, warum es nicht nur um reine Vermittlung geht. Und warum im Jetzt vorgebeugt werden muss, um die Probleme in der Zukunft abzuschwächen.

1) Heute Vollbeschäftigung, morgen Gap

Ist Arbeitslosigkeit zurzeit überhaupt ein Problem in der westlichen Welt?
Denn kaum war die erste Woche des Jahres vergangen, kamen die neuen Zahlen des US-amerikanischen Arbeitsmarktes heraus. Diese näherten sich stark der vollen Beschäftigung (definiert als drei Prozent Arbeitslosigkeit) mit einer Arbeitslosenquote von 4.1 %, nachdem 250,000 neue Jobs im letzten Monat des Jahres 2017 gezählt worden sind. Der niedrigste Wert seit 17 Jahren. Mark Zandi, Chefökonom der Marktforschungsinstitution “Moody’s Analytics”, nannte den amerikanischen Arbeitsmarkt «bald so gut wie er sein kann». Viele westliche Länder haben im Moment ähnlich niedrige Zahlen aufzuweisen. Deutschland und die Schweiz liegen gar unter vier Prozent, Norwegen nur knapp höher und der EU-Durchschnitt ist der niedrigste seit zehn Jahren. Selbst das Vereinigte Königreich ist in dieser Hinsicht noch nicht vom Brexit getroffen worden. Planen die Arbeitsämter nun lange Ferien?

Hoffentlich nicht. Denn deswegen zu denken, dass sich diese Staaten keine Sorgen um ihren Arbeitsmarkt machen müssten, ist ein Trugschluss. Jeder Arbeitsmarkt stellt sein Arbeitsministerium vor seine eigenen Herausforderungen, weshalb Arbeitsämter immer gut zu tun haben. Und um nun die Public Employment Services grundlegend zu unterstützen, reicht nicht nur eine reine Vermittlungslösung. Es bedarf vor allem an weitreichend fundiertem Wissen über die Arbeitsmärkte und ihren vielfältigen Herausforderungen, von denen zurzeit in allen Ecken der Welt unterschiedliche lauern.

Hierzu zählt aktuell allen voran die Digitalisierung: Der europäische Arbeitsmarkt ist an vielen Orten zwar nahe an der Vollbeschäftigung, doch aufgrund dieses Trends können die Beschäftigten zu leicht in der Zukunft ersetzt werden. Wer braucht einen Taxifahrer, sobald der Wagen selbst zum Chauffeur wird? Und wer braucht eine Putzhilfe, wenn das Reinigen Roboter übernehmen, die selbst in engsten Ecken säubern? Zwischen den Jobs mit niedrigerem Qualifikationsniveau gibt es jedoch grosse Unterschiede. So können Reinigungen viel leichter von Maschinen übernommen werden als beispielsweise komplizierte Näharbeiten. Es sind also nicht alle Jobs mit niedriger Qualifikation gefährdet – jedoch viele. Und nicht nur diese. Denn auch Mitarbeitende mit höherer Ausbildung kann man ersetzen, da Computer die Statik von Gebäuden, Logistik- oder Produktionsprozesse wesentlich genauer berechnen und verbessern können. Ebenso gilt ein Computer als immer verlässlicher und vor allem risikoaverser als der lebendige Finanzberater in der Bankfiliale nebenan, da er nun mal aufgrund von Fakten und nicht Emotionalität entscheidet.

Diese komplexen Herausforderungen lassen sich nicht einfach mit reiner Vermittlung lösen, denn auch wenn jemand vermittelt werden konnte, könnte dieser Job in naher Zukunft durch die Digitalisierung verschwinden. Wenn der Verbrennungsmotor bald pensioniert und vom Elektromotor abgelöst wird, sind wesentlich weniger Kräfte nötig, denn für die Herstellung eines Elektromotors bräuchte man nur noch vier Mitarbeiter anstatt sieben. Die drei Überflüssigen werden nun also arbeitslos, und um diese wieder zu vermitteln, darf nicht nur zugeschaut und abgewartet werden.

 

2) Die Schere öffnet sich

Schaut man bestimmte Berufsgruppen an, lässt sich das Gegenteil als Herausforderung erkennen. Während einige Berufe verschwinden, werden gleichzeitig in anderen Bereichen händeringend Kräfte gesucht. Die Medien bewerfen sich mit immer höheren Zahlen: 7000 offene Stellen für Pflegekräfte in der Schweiz, 100000 Ingenieure in Deutschland vermisst. Wie soll durch die Vermittlung ein Bedarf gedeckt werden, für den es keine Kräfte gibt?

Welchen Beruf die Menschen lernen möchten, deckt sich also immer weniger mit der Nachfrage. Von Beginn der Kindheit an gibt es eine sehr grosse Freiheit bei der Wahl zum Beruf: Fast jeder kann nahezu selbstbestimmt wählen, welche Karrierelaufbahn er einschlagen möchte. Diese Freiheit führt dazu, dass es einerseits häufig gewählte und andererseits sehr selten gewählte Karrierewege gibt. Und schliesslich stehen wir vor einer Schere, die zwischen diesen beiden Gruppen mehr und mehr auseinandergeht. In vielen attraktiven Berufen wird es immer schwieriger, den Lebensunterhalt über vier bis fünf Jahrzehnte zu sichern, und da wir immer länger arbeiten, ist gerade dieser Aspekt sehr wichtig. Wie viele Meeresbiologen werden wohl in der Schweiz wirklich benötigt? Und während die gutausgebildeten Meeresbiologen arbeitslos verbleiben, unterschreiben Ingenieure Arbeitsverträge noch lernend im Hörsaal lernen. Ein Trauerspiel.

Dies sollte als Ansporn für eine neue Aufgabe sowohl für Politik, Gesellschaft, Universitäten als auch für alle weiteren beteiligten Parteien gesehen werden: Wir haben einen Bedarf, also machen wir den Bedarfsbereich attraktiv. Es ist Zeit, dass Einfluss genommen wird auf die Ausbildung und die Karriereplanung. Nicht nur in der Not reagieren, sondern gezielt vorbeugen. Was kann getan werden, damit junge Menschen Ausbildungen wählen, die unbedingt benötigt werden? Es muss in die Zukunft geschaut werden. Begrenzen wir stark frequentierte Studiengänge in einem stärkeren Rahmen? Fördern wir Personen, die unattraktive Ausbildungen wählen?

Natürlich könnte man die Löhne von Berufen wie in der Pflege schlichtweg substantiell erhöhen, um diese attraktiver zu machen. Aber wer soll das bezahlen, wenn die Konsumenten nicht bereit sind, mehr zu zahlen? Solange Produkte und Dienstleistungen immer günstiger werden, können die Löhne auch nicht gesteigert werden – und das sorgt dafür, dass die Erträge nicht ausreichen und der Job als unattraktiv gilt. Auf diese Art und Weise kann aktuell also ein Job nicht attraktiver gemacht werden.

Bei solchen Herausforderungen ist es nicht sinnvoll, schlichtweg über Vermittlungsstrategien, ganz gleich ob technologisch oder nicht technologisch, nachzudenken. Denn auch dieses Problem ist nicht mit reiner Vermittlung gelöst. Vielmehr sollte man darauf hinarbeiten, dass sich Angebot und Nachfrage decken. Es müssen neue Modelle geschaffen werden, um auf aktuelle Trends und Gaps reagieren zu können. Die Gapanalyse zeigt, dass der Mangel immer grösser wird und zwar in allen Märkten. Und dies lässt sich leider nicht mit Migration klären, obwohl sich daraus zurzeit insbesondere in Europa viele Möglichkeiten entwickeln.

 

3) Abwanderung als einziger Ausweg

Denn leider gibt es sogar ganze Regionen, in denen die Erträge von Arbeit einfach nicht reichen. In diesen Teilen der Erde fühlen sich die Menschen, als müssten sie wegziehen, um Arbeit zu finden. In Litauen beispielsweise gibt es in fast jeder Familie jemanden, der im Ausland arbeitet, denn die Menschen können dort von ihren Löhnen bei steigenden Lebenshaltungskosten kaum leben. Das kleine Land hat deswegen in den letzten 15 Jahren über eine halbe Million Menschen verloren- eine grosse Anzahl bei einer Gesamtbevölkerung von unter drei Millionen. Vor allem junge Menschenverlassen das Land entweder schon vor oder gleich nach dem Studium. Zurück bleibt eine Gesellschaft, die umso schneller altert.

Oder schauen wir uns die Bevölkerung von Indonesien an: über eine Viertelmilliarde Menschen. Diese findet ihren Arbeitsmarkt sicher interessant, denn die Wirtschaft im Land ist stark wachsend. Doch umso mehr wächst die Bevölkerung – jedes Jahr um drei Millionen Menschen, also so viele wie in den Städten Berlin oder Madrid leben. Dabei ist über die Hälfte unter 30 Jahre alt. Diese vielen jungen Menschen benötigen irgendwann alle eine Arbeitsstelle. Auch hier sehen viele die Abwanderung als nötigen Ausweg. Und auch in solchen Fällen müssen neue Modelle geschaffen werden, Modelle die Angebot und Nachfrage wieder auf ganz andere Weise ausgleichen. Man kann keinen Menschen vermitteln, wo schlichtweg kein Job verfügbar ist.

 

4) Einen Job haben, ist nicht genug

Aber selbst wenn Jobs verfügbar sind, reichen reine Vermittlungsstrategien nicht aus. So versuchen einige südamerikanische Arbeitsmärkte neben vielen anderen Herausforderungen wie Kriminalität, Drogenmissbrauch und Intransparenz von Geldflüssen, «Unterbeschäftigung» zu bekämpfen. Ein Begriff, der nicht für Arbeitslosigkeit steht, sondern für zu wenig Arbeit und zu wenig Stunden. Von den geringen Löhnen kann dann kein vernünftiger Lebensstandard gesichert werden. Selbst nach den vielseitigen, nachhaltigen Bemühungen der Arbeitsministerien bleibt die Situation auf den Arbeitsmärkten kompliziert. In Paraguay beispielsweise liegt die Arbeitslosenquote bei etwa neun Prozent, ein ähnlicher Wert wie in hochentwickelten Ländern wie Frankreich oder Finnland. Doch was sagt dieser Wert aus? Durch die Unterbeschäftigung, und immer noch viele Tagesbeschäftigte, tauchen so einige Bürger dementsprechend nicht in der Arbeitslosenquote auf, denn sie haben ja einen Job. Die Arbeitslosenquote sagt also nur wenig darüber aus, ob ein vernünftiger Lebensstandard in einem Staat oder einer Region gesichert ist.

 

Reagieren anstatt abwarten

Ja, die Arbeitslosenquoten sind niedrig. Aber eine niedrige Quote rettet keinen Arbeitsmarkt. Jeder Arbeitsmarkt hat zusätzlich sein spezifisches Problem, auf welches ganz unterschiedlich reagiert werden muss. Und es kommen noch viele weitere hinzu: Wie vermittelt man Menschen über 50? Wie platziert man hochqualifizierte Flüchtlinge? Grundsätzlich ist absehbar, dass wenn PES nicht adaptieren, und somit möglichst viele Herausforderungen meistern, werden grosse Probleme dafür sorgen, dass die PES ihre Daseinsberechtigung verlieren. Es muss nun reagiert und Diskussionen müssen gestartet werden. Diskussionen, die datenbasiert sind und somit die richtigen Tools und Technologien benötigen. Aber nur die Tools und Technologien bereitzustellen, wird nicht mit Erfolg gekrönt sein. Eine ausgeprägte Expertise hingegen, die über ein Jahrzehnt entwickelt wurde, weiss genau, welches Problemfeld, an welcher Stelle und auf welche Art und Weise angegangen werden soll und somit auch, wie die Tools richtig eingesetzt werden müssen. Gleichzeitig braucht es jemanden, der genau diese ansehnliche Expertise frühzeitig einsetzt. Es ist nur eine Frage der Zeit, wann die Arbeitslosigkeit wieder steigt, vor allem bei den Jugendlichen. Wenn das richtige, grundlegende Verständnis für Probleme dieser Art vorhanden ist, können die Möglichkeiten frühzeitig erkannt und mit den richtigen Lösungsstrategien abgestimmt werden. Zudem müssen die spezifischen Anforderungen des Arbeitsmarktes in Erfahrung gebracht, berücksichtigt und im Heute angewendet werden, kurz: Es muss im Jetzt reagiert werden. Ich frage mich, warum Politik, Gesellschaft sowie Bildungsinstitutionen, etc. noch dastehen und zuschauen. Sie sollten sich JETZT mit Spezialisten besprechen, die über eben diese Expertise verfügen. Denn es gibt Spezialisten, die sich täglich mit allen genannten und ungenannten Herausforderungen von Arbeitsmärkten auseinandersetzen, sie reflektieren und analysieren. Die Spezialisten stehen mit ihrem Wissen bereit – bei JANZZ.technology.

Lost in Big Data?
Die fehlgeleitete Vorstellung, das Datenuniversum zu beherrschen.

“. . . In diesem Reich erreichte die Kunst der Kartographie eine solche Perfektion, dass die Karte einer einzigen Provinz die Fläche einer gesamten Stadt und die Karte des Reichs die Fläche einer gesamten Provinz bedeckte. Mit der Zeit waren diese unzumutbaren Karten nicht mehr zufriedenstellend, sodass die Kartographengilden eine Karte des Reichs anfertigten, deren Größe der des Reichs entsprach und welche diesem Punkt für Punkt entsprach.[…]”

Übersetzung nach „Del rigor en la ciencia“ (Über die Genauigkeit von Wissenschaft)
Jorge Luis Borges

Borges Geschichte folgt der Vorstellung eines Reiches, das besessen von der Idee ist, eine perfekte Abbildung der Welt zu schaffen. Das fiktive Reich hat sich voll und ganz der Aufgabe verschrieben, eine Karte zu erstellen, die mit dem Territorium des Reichs Punkt für Punkt übereinstimmt. Heute komme ich nicht umhin, zu denken, dass wir uns in einer sehr ähnlichen Umgebung befinden: Daten verändern die Welt, in der wir leben und wie wir diese wahrnehmen, in tiefgreifender Weise. Wir befinden uns inmitten einer Datenrevolution, die so groß, allumfassend und neu ist, dass sie in Gänze kaum zu erfassen ist. Die Auswirkungen von Daten machen sich auf einer immensen Bandbreite bemerkbar; wir möchten Big Data nutzen, um ganze Industrien zu revolutionieren, von Marketing und Vertrieb bis zu Wettervorhersagen, von medizinischen Diagnosen bis zu Lebensmittelverpackungen, von der Aufbewahrung von Dokumenten und der Verwendung von Software bis zur Kommunikation. Tatsächlich sind wir sehr ähnlich zu Borges fiktivem Reich zu der Überzeugung gelangt, dass wir, je mehr Daten wir sammeln und auswerten können, desto mehr Wissen über die Welt und die darin lebenden Menschen gewinnen. Wie töricht der Datenwahnsinn doch geworden ist.

Es herrscht mittlerweile die Überzeugung vor, dass Big Data umsetzbare Erkenntnisse zu nahezu jedem Aspekt des Lebens liefern können. Philip Evans und Patrick Forth widersprechen dem: „Informationen werden durch grundlegend neue Methoden der künstlichen Intelligenz verstanden und verwendet, die darauf abzielen, über Algorithmen, die auf massive, verrauschte Datensätze zurückgreifen, Erkenntnisse zu gewinnen. Da größere Datensätze zu besseren Erkenntnissen führen sind Big Data eine gute Sache“ (Übersetzung nach ihrem gemeinsamen Artikel in bcg.perspectives). In Übereinstimmung mit diesen Zeilen wird unser Datenhunger immer größer und unser digitales Ökosystem schürt diese Entwicklung: Sensoren, Connected Devices, Social Media und eine wachsende Anzahl an Clouds produzieren kontinuierlich neue Daten, die wir sammeln und auswerten können. Laut einer Studie der International Data Corporation (IDC) wird sich das digitale Universum alle zwei Jahre verdoppeln. Zwischen 2005 und 2020 vergrößerte sich das Datenvolumen um den Faktor 300 auf 40 Zettabyte an Daten. Ein Zettabyte hat 21 Nullen. In dieser Welt des exponentiellen Datenwachstums geht die angestrebte Anhäufung von Daten ungebremst weiter. So wie in Borges fiktivem Reich ist die äußere Maßstabsgrenze ein Verhältnis von 1:1, eine vollständige digitale Abbildung unserer Welt.

Unternehmen wie IBM oder LinkedIn nähern sich dieser Grenze bereits heute mit großen Schritten an. IBM trainiert sein kognitives Rechensystem namens Watson darauf, buchstäblich jede Frage beantworten zu können. Hierzu sammelt IBM Watson ungeahnte Datenmengen, um einen beeindruckenden Informationskorpus anzulegen. Das Unternehmen erwarb vor kurzem für 2,6 Milliarden $ das Unternehmen Truven Health Analytic, das seine Gesundheitssparte um einen wichtigen Speicher mit Gesundheitsdaten von tausenden Krankenhäusern, Arbeitgebern und föderalen Regierungen in den USA erweitert. Es handelte sich dabei um den viertgrößten Erwerb eines Gesundheitsdatenunternehmens seit dem 10-monatigen Bestehen von IBM Watson. Dies zeigt, wie wichtig die digitale Kartierung von Patienten, Diagnosen, Behandlungen und Krankenhäusern für das künstliche Intelligenzsystem des Computerriesen ist. Die Vision von LinkedIn ist gleichermaßen ambitioniert: es wird „Economic Graph“ geschaffen, nichts geringeres als eine digitale Kartierung der Weltwirtschaft. Die Karte soll ein Profil von allen 3 Milliarden Mitgliedern der globalen Arbeiterschaft beinhalten. Alle Unternehmen, alle ihre Produkte und Dienstleistungen, die von den Unternehmen gebotenen Wirtschaftschancen und die Skills, die zum Erreichen dieser Chancen erforderlich sind, sollen digital abgebildet werden. Außerdem soll ein digitaler Auftritt für alle höheren Bildungseinrichtungen der Welt integriert werden. Aber die Bestrebungen der beiden Unternehmen sind nur die Spitze des Eisbergs. Ihr Vorhaben, eine vollständige digitale Abbildung der jeweiligen Felder zu erstellen, steht symbolisch für die allgemeinere Bestrebung eine allgegenwärtige Informationsgesellschaft zu schaffen.

Die Visionen von Unternehmen wie IBM Watson und LinkedIn erwecken daher bereits eine Welt zum Leben, die Borges Vorstellungen entspricht. Die Macht der Big Data überträgt die kartographischen Ziele von dem Reich aus Borges Geschichte und erschafft diese neu. Die Welt wird zu einem Bezugspunkt ihrer selbst. Die digitale Abbildung unserer Welt nimmt schnell an Fahrt auf und an den äußeren Rändern fangen Abbildung und Realität bereits an, übereinzustimmen. Die Welt und das Bild, das wir von ihr haben, konvergieren. Plötzlich finden wir uns in einer Welt wieder, die erstaunliche Ähnlichkeit zu Borges Reich hat.

Wie töricht – Borges Geschichte geht so weiter, dass der Sinn einer solchen massiven Kartierung in Frage gestellt wird. Eine Karte im Maßstab von 1:1 ist, sei es kartographisch oder digital, ist wahrscheinlich nicht so wertvoll wie gedacht.

„[…] Die nachfolgenden Generationen, die dem Kartographiestudium nicht so zugewandt waren, wie es ihre Vorfahren gewesen waren, stellten fest, dass riesige Karten nutzlos wären und überließen diese schonungslos der Witterung durch Sonne und Winter. In den Wüsten des Westens gibt es noch heute zerfetzte Überreste dieser Karte, auf der Tiere und Bettler leben; im ganzen Land ist kein anderes Relikt vom Fachgebiet der Geographie zu finden.“

In Borges fiktiver Welt entsorgten die kommenden Generationen die Karte ihrer Vorväter, da sie nicht von dem gleichen Ehrgeiz wir ihre Vorfahren erfasst waren und erkannt hatten, dass eine Karte im Maßstab von 1:1 unnütz wäre. Sie überließen die Karte dem Zerfall und das einzige, was übrig blieb, waren die „zerfetzten Überreste“ von der Karte ihrer Vorfahren. Die Feststellung, dass eine Karte im Maßstab von 1:1 praktisch nutzlos ist, spiegelt auch unsere Erfahrung mit dem expandierenden Datenuniversum wieder.  Professor Patrick Wolfe, Executive Director des Big Data Institute des University College of London warnt: „die Rate, in der wir Daten generieren, übersteigt rasant unsere Fähigkeit, diese analysieren zu können.” Derzeit werden nur etwa 0,5% aller Daten ausgewertet und Wolfe meint, dass diese Prozentzahl weiter sinken wird, da mehr Daten gesammelt werden. Wir beginnen also, die Unbrauchbarkeit der von uns geführten Massen von Daten zu realisieren. Anstatt durch Daten exponentiell mehr Wissen über die Welt zu gewinnen, schaffen wir eine Entität, die aufgrund ihrer bloßen Größe droht in Vergessenheit zu geraten.

Um unsere ständig wachsende digitale Sammlung vor dem selben Schicksal wie Borges Karte zu bewahren – die von den uns nachfolgenden Generationen als zerfetzter Überrest verkommt – ist es von entscheidender Bedeutung, umsetzbare Erkenntnisse aus diesen Informationen zu gewinnen. Dementsprechend wird die Fähigkeit, diese Massen gesammelter Daten vollständig zu verstehen und relevante Erkenntnisse daraus abzuleiten, heute und vor allem in Zukunft der ultimative Wettbewerbsvorteil sein.

Auch wenn sich bereits viele für die Umwandlung von Big Data in smarte oder intelligente Daten aussprechen, hat sich bislang keine brauchbare Lösung hervorgetan, um diesen Wandel wirklich realisieren zu können. Die angewandte Mathematik, die natürliche Verarbeitung von Sprache und das Maschinenlernen halten sich die Waage und verdrängen jedes andere Tool, das ggf. zur Anwendung gebracht wird. Die Idee besteht darin, dass bei einer ausreichenden Menge an Daten die Zahlen für sich sprechen. Oder in den Worten von Evans und Forth: „Big Data sind eine gute Sache“. Diese Idee verändert die Kultur des Silicon Valley und im Weiteren auch die zahlreicher anderer Unternehmungen auf der Welt.

Andere Methodologien wie Ontologien, Taxonomien und Semantiken finden bei dem aktuellen Entdeckergeist überhaupt keine Berücksichtigung. Die angewandte Mathematik, das Maschinenlernen und die prädiktive Analytik stehen hierbei für Größe, Ontologien, Taxonomien und Semantiken stehen für Bedeutung und Verständnis. Und auch wenn letztgenannte Kategorie im Vergleich zu den Dimensionen der zuerst genannten Kategorien weniger bedeutsam erscheinen mag, ist die Semantik nicht weniger wichtig, um die Wettbewerbstauglichkeit von Unternehmen zu bestimmen. Nach dem exponentiellen Wachstum des digitalen Universums in den vergangenen Jahren, haben wir einen Komplexitätsgrad erreicht, der die Einführung eines tiefgreifenden Verständnisses der vorliegenden Daten erforderlich macht. Dies ist etwas, was nicht dadurch geschafft werden kann, dass noch mehr Daten gesammelt werden oder dass ein Algorithmus implementiert wird. Ironischerweise ist es somit ein Richtungswandel, der weg von dem Motto „Big Data sind eine gute Sache“ führt, welcher das ganze Potenzial der Big Data zur Geltung bringen kann.

 

ESCO: Wir erwarteten eine Ontologie – wir bekamen eine enttäuschende Begriffsammlung

Da waren fast vier Jahre vergangen. Solange haben wir gewartet – gespannt, was da von der EU vollmundig angekündigt wurde. Immer gespannt, ob es altbekannte Probleme von Klassifikationssystemen löst.
Die Klassifizierung der Europäischen Union für berufsbezogene Daten nennt sich „ESCO“ (European Skills, Competences, Qualifications and Occupations). Klassifizierungen haben bisher alle Staaten je für sich gelöst, wie ROME in Frankreich oder KLdB in Deutschland oder CP in Italien. Meist basieren sie auf der Mutter aller Klassifizierungen, die International Standard Classification of Occupation (ISCO) der Internationalen Arbeitsorganisation um 1960. Vergleichbar sind diese jedoch nicht unbedingt – verschiedene Zahlen, Buchstaben und unterschiedlich viele Taxonomiestufen können die Klassifizierungen unterscheiden.

janzz_esco_unsatisfied

Andere Klassifizierungssysteme waren zu allererst zu Statistikgründen entwickelt worden. Damit konnte man also Berufe mit Identifikationsnummern in Gruppen zusammenfassen und so Zahlen erheben, das Verständnis für die einzelnen Berufe haben diese Systeme jedoch nicht ausgebaut. Denn die Gruppenzusammenstellungen waren häufig viel zu weit gefasst, zu generisch. Beispielsweise sind sämtliche Fachärzte in einer Gruppe zusammengestellt, und diese Gruppe ist aber nur mit einem einzigen Set an Skills für alle Fachärzte beschrieben. Dies bedeutet also, dass ein Onkologe mit genau den gleichen Fertigkeiten wie ein Gastroenterologe, ein Gynäkologe oder ein Pathologe beschrieben wird. Laut den Taxonomien haben sie somit genau die gleichen Kenntnisse, ihre Spezialisierungen erkennt man nur an ihrem Titel. Mit so ungenauen Beschreibungen kann man also sicher nicht besser einzelne Jobtitel verstehen.

Die EU wollte ESCO nicht als ein weiteres viel zu vages Gerüst fertigen, vielmehr sollte ein einheitliches Verständnis für Berufe, Fähigkeiten, Kenntnisse und Qualifikation erschaffen werden, über 26 Sprachen hinweg, damit Arbeitgeber, Arbeitnehmer und Bildungsinstitutionen besser die gegenseitigen Bedürfnisse und Anforderungen verstehen. Durch die freie Mobilität könnten sich so Qualifizierungslücken und die Arbeitslosigkeit in verschiedenen Mitgliedsstaaten ausgleichen, wie der Juncker meint [1].

Nun wurde fast vier Jahre seit der Testversion gearbeitet. Alle möglichen Stakeholder sollten beteiligt sein wie Arbeitsämter, Karriereberater, Statistiker, Wissenschaftler…, um diese Klassifizierung in 26 Sprachen zu erschaffen. Knapp vier Jahre wurde getestet, erweitert, verändert, überarbeitet… Und nun sitze ich hier an meinem PC, tippe als Fertigkeit „Word“ ein und die Datenbank erkennt den Begriff nicht. Einziger Alternativvorschlag: WordPress, wohl nicht sehr verwandt. Tippe ich „PowerPoint“ zeigt sich gähnende Fehlanzeige, die Datenbank erkennt den Begriff nicht, er ist nicht hinterlegt.

Gut, versuchen wir es ‘mal bei Indeed. Allein in Deutschland finde ich mit dem Suchbegriff „PowerPoint“ über 13000 Jobinserate, in Frankreich und im Vereinigten Königreich rund 8000. Europaweit ist PowerPoint jedoch nicht als Skill klassifiziert. Kein Platz unter 13485 Skills im ESCO. Soll ein Arbeitnehmer einen potenziellen Arbeitgeber also insoweit besser verstehen, dass PowerPoint keine wichtige Kenntnis für eine Beschäftigung darstellt?
Zugegebenermassen erkennt die Datenbank schon „Microsoft Office nutzen“, wenn „Microsoft“ eingegeben wird, weiter geht das semantische Verständnis der Datenbank jedoch nicht. Denn «Textverarbeitungsprogramme verwenden» ist sogar als eigenständige Fertigkeit ohne Verbindung zu Microsoft Office hinterlegt, keine der beiden Fertigkeiten schlagen sich als Synonym vor.

ESCO gibt an, ganze 2942 Berufen zu erkennen. Interessant dabei ist, dass das System einen „Logistikkoordinator Schienenverkehr“ [2] schon erkennt und auch gewisse alternative Schreibweisen anbietet, den Logistiker² jedoch nicht. Hier und dort finden sich immer wieder Berufe mit ähnlichen Krankheiten. Zudem wird als alternative Bezeichnung für eine/einen „Parteimitarbeiter/in“ auch “PR-Mitarbeiter/in“² vorgeschlagen. Nur um ein Beispiel zu nennen für eine fehlerhafte Jobtitel-Alternative.

ESCO soll nun auf 26 Sprachen laufen. Ja und Nein, finde ich heraus. Ja, die Jobtitel sind auf 26 Sprachen verfügbar, ja, die Kenntnisse ebenfalls. Die Erklärung eines Begriffs findet sich jedoch immer nur auf Englisch, welches heissen soll, dass ein Titel übersetzt werden kann in alle Sprachen, die Jobbeschreibung jedoch nicht. Sie verbleibt immer in der englischen Sprache verfasst. Ist nun fraglich, ob ein Arbeitgeber aus Frankreich den Beruf seines schwedischen Bewerbers besser versteht ohne Definition auf seiner Landessprache Französisch. Oder ob er versteht, ob die Klassifizierung wirklich mit seiner Vakanz übereinstimmt.

Ganz abgesehen davon, dass die Qualifikationen nur auf einer einzigen Sprache zugänglich sind: Griechisch. Auch die detaillierten Beschreibungen sind nur in dieser Landessprache auffindbar. Hiermit versteht ein Arbeitgeber eines anderen Mitgliedstaates jedenfalls seinen Bewerber nicht besser, selbst wenn dieser aus Griechenland stammen sollte. ESCO meldet selbst dazu, dass die Qualifikationen von den Mitgliedsstaaten geliefert werden müssen und zeitweise integriert werden. Da haben sich 27 Mitgliedsstaaten aber ziemlich viel Zeit gelassen.

Nun muss ich zusammenfassen, ich bin mehr als nur leise enttäuscht. Fast vier Jahre habe ich gewartet seitdem ich auf dem ESCO Kongress zusammen mit anderen die mannigfaltigen Möglichkeiten von Ontologien erklärt habe. Aber es ist keine Ontologie entstanden, vielmehr eine Taxonomie oder Sammlung an Begriffen. 2942 Berufe, 13485 Kenntnisse und 672 (griechische) Qualifikationen wurden in ESCO integriert, klassifiziert. ESCO hat vermeintlich finanziell und ganz sicher zeitlich immens investiert für diese Entwicklung. Aber ob das nun der Durchbruch zu Juncker’s Zielsetzung ist, ist grundlegend fraglich.

Und die Frage ist jetzt: Was machen wir nun? Hoffen und weitere vier Jahre warten bis ESCO vielleicht die Ansprüche des HR-Bereichs und der Public Employment Services erfüllen könnte? Oder vielleicht lieber nach einer Alternative umschauen? Wie wäre es beispielsweise mit einer Alternative, die eine wahre Ontologie mit semantischer Erkennung darstellt. Die erkennt, dass ein/e Parteimitarbeiter/in nicht das gleiche wie ein/e PR-Mitarbeiter/in macht. Die weiss, dass MS Word die gleiche Fertigkeit wie Microsoft Word oder Textverarbeitung darstellt. Und die viele Sprachen vollständig enthält. Wer weiss, vielleicht gibt es so etwas ja bereits. Vielleicht könnte eine Onlinerecherche danach erfolgreich sein. Zum Beispiel auf http://janzz.technology.

[1] ESCO (2015). ESCO strategic framework. Vision, mission, position, added value and guiding principles. Brüssel.

[2] Für diese Recherche wurde nur die Online-Datenbank von ESCO genutzt.

 

NAV wählt die Ontologie-basierte Technologie von JANZZ für die Modernisierung seiner Arbeitsmarkt Plattform.

Das Norwegische Arbeits- und Sozialamt (NAV) hat das Schweizer Technologie Unternehmen JANZZ in einem öffentlichen Ausschreibungsverfahren ausgewählt, Komponenten für seine neue Arbeitsmarktplattform zu liefern. JANZZ hat sich im Ausschreibungsverfahren gegen internationale Konkurrenz durchgesetzt und wird NAV mit seiner Expertise in Berufs- und Kompetenzdaten unterstützen.

Im Rahmen seiner Agenda zur Verbesserung des Übergangs von Arbeitssuchenden in Beschäftigung erfindet NAV seine Self-Service Job Plattform neu. NAV beabsichtigt, einen transparenten Service für alle Stakeholder des Arbeitsmarktes anzubieten, den alle unter den gleichen Voraussetzungen nutzen können. Dies soll den norwegischen Arbeitsmarkt noch transparenter machen und eine schnellere Rückkehr in eine Beschäftigung für alle Arbeitssuchenden ermöglichen.

Zudem soll die neue Arbeitsmarkt Plattform als Wissensquelle über den norwegischen Arbeitsmarkt dienen. Das Sammeln, Anreichern und Analysieren von Daten und Informationen zu Berufen und Kompetenzen ist der Kern von NAV’s strategischer Vision und wird ein integraler Bestandteil der zukünftigen Plattform sein. Durch die Datenanalysen soll ein nachhaltiges und dynamisches Wissenssystem geschaffen werden, das dem Arbeitsmarkt zu Gute kommt.

Mit seiner Ontologie-basierten Matching Technology, JANZZ bietet die ideale Grundlage für NAV um eine innovative und nachhaltige neue Plattform zu bauen. Die Berufs- und Kompetenzontologie von JANZZ ist eine umfassende semantische Datenbank von Job Titeln, Kompetenzen und Ausbildungen. Sie versteht die Nuancen von Lebensläufen und Stellenanzeigen und kann helfen zwischen diesen zu übersetzen. In Kombination mit der semantischen Job Matching Engine, wird sie NAV helfen, relevantere und transparentere Suchresultate und Jobvorschläge zu liefern und genauere Einblicke in den Arbeitsmarkt zu erlangen.

Über NAV

Das Norwegische Arbeits- und Sozialamt (NAV) beschäftigt ungefähr 19 000 Mitarbeitende (ungefähr 14 000 Staatsangestellte und 5 000 Gemeindeangestellte).

NAV wurde am 1. Juli 2006 gegründet. Gemeinden und die Regierung kooperieren um der Gesellschaft durch 456 Dienststellen in allen 19 Verwaltungsprovinzen Norwegens gute Lösungen im Bereich der Sozialdienste und Arbeitsvermittlung anzubieten.

NAV ist verantwortlich für einen Drittel des norwegischen Staatshaushalts. Das Amt verwaltet verschiedene Vorsorge- und Beschäftigungsprogramme (nämlich Arbeitslosengeld, Invalidenversicherung, Krankengeld, Kinderzulage, Zulage für pflegende Angehörige und Pension).

Hauptziele in Bezug auf den Arbeitsmarkt:

  • Mehr Menschen aktiv und in Beschäftigung, weniger Leistungsempfänger
  • Ein gut funktionierender Arbeitsmarkt mit hoher Erwerbsbeteiligung
  • Eine inklusive Gesellschaft die allen die Möglichkeit zur Teilnahme versichert
  • Umfassende und effiziente Sozialdienste und Arbeitsvermittlung

Sekundäre Ziele in Bezug auf den Arbeitsmarkt:

  • Inklusive Arbeitsplätze
  • Unternehmen und Vermittlungen können Stellen mit qualifizierten Mitarbeitenden füllen
  • Menschen mit Beeinträchtigung können aktiv am Arbeitsleben teilnehmen
  • Dienstleistungen und Informationen zugeschnitten auf die Bedürfnisse und Umstände der Benutzer

Mehr Informationen unter www.nav.no

Über JANZZ.technology

JANZZ.technology ist ein Technologie- und Beratungsunternehmen, das im semantischen Skills- und Job-Matching und der Nutzung komplexer Berufs- und Kompetenzdaten tätig ist. Es bietet Standard-, White Label-Produkte und SaaS-Lösungen für die Modellierung, Analyse und Nutzung von Big Data auf Jobportalen, staatlichen Arbeitsmarkt-Plattformen sowie firmeneigenen Karriere-Seiten. Anhand der neusten semantischen Technologien wird ein sprachübergreifendes, präzises Matching von Qualifikationen, Fähigkeiten und Kompetenzen ermöglicht. Dadurch können Matching-Probleme in Arbeitsmärkten massgeblich verringert werden.

Mehr Informationen unter www.janzz.technology

Wie wird Active Sourcing effizient eingesetzt und wie können die richtigen Technologien den Rekrutierungsprozess damit vereinfachen bzw. erfolgreicher machen? Teil 7/10

Am Thema Active Sourcing scheiden sich die Gemüter. Was immer wieder als Trendthema aufgegriffen wird, ist wohl eher alter Wein in neuen Schläuchen. Darum wird es jetzt doch mal Zeit, sich dem Thema etwas ausführlicher anzunehmen. Denn Firmen haben schon immer aktiv potenzielle Mitarbeitende angesprochen. Früher hat man das halt noch meist per Telefon oder über das persönliche Netzwerk gemacht und hat es Direktansprache genannt. Nun wird auf der einen Seite Active Sourcing als Bestatter des „Post and Pray“- Zeitalters und Lösung gegen den immer grösseren Fachkräftemangel proklamiert. Auf der anderen Seite wird kritisiert, dass es dank öffentlich zugänglicher Netzwerke wie LinkedIn und Xing in den Händen von Personalabteilungen immer unprofessioneller betrieben wird, zur Verärgerung von viel gesuchten Fachkräften und zum Schaden der Firmenmarke. Zudem ist Active Sourcing omnipräsent in Fachzeitschriften und HR-Blogs, doch in der Praxis scheint es kaum eine grosse Sache zu sein. Mit über 90 Prozent sind Online-Jobportale dicht gefolgt von der eigenen Karriereseite mit über 80 Prozent die meist verwendeten Recruiting-Kanäle in der Schweiz (Statista 2015). Von den befragten Unternehmen nutzen hingegen nur knapp 30 Prozent Active Sourcing für die Rekrutierung neuer Mitarbeiter. Das Stelleninserat, das sowohl auf Karriereseiten als auch auf Jobportalen zu Hause ist, ist somit nach über hundert Jahren immer noch die unbestrittene Nummer eins in der Jagd nach neuen Talenten. Trotz Prophezeiungen wie der von Recruiting Spezialist Jörg Buckmann im Oktober 2013:„Aus ‚Post and Pray‘ wird Active Sourcing“ oder der des Human Resource Managers: „,Post and Pray‘-Recruiting betreiben erfolgreiche Recruiter schon lange nicht mehr“ ist Active Sourcing also immer noch weit davon entfernt, das Stelleninserat zu ersetzen.

Einen Teil der Antwort auf die Frage dieses Beitrages, wie Active Sourcing effizient eingesetzt wird und wie die richtigen Technologien den Rekrutierungsprozess vereinfachen könnten, liegt darin, die Gründe zu verstehen, warum Active Sourcing sich noch nicht durchgesetzt hat und warum es Meinungen derart polarisiert. Da ich in meiner Reihe über technologische Trends im HR schon viel über das Potenzial und die Funktionsweise von neuen Technologien geschrieben habe, will ich mich in diesem Beitrag mehr auf die Rahmenbedingungen konzentrieren, auf die solche Technologien in HR- Abteilungen treffen.

Kurz zum Begriff „Active Sourcing“

Für eine Definition bediene ich mich mal bei Wikipedia: „Active Sourcing steht für alle Massnahmen der Identifizierung vielversprechender Mitarbeiter auf dem externen Arbeitsmarkt, bei denen das Unternehmen aktiv versucht, in persönlichen Kontakt mit potenziellen Bewerbenden und Mitarbeitenden zu treten und eine dauerhafte Beziehung zu den Bewerbenden aufzubauen.“ Dabei sind Social-Media-Kanäle und professionelle Netzwerke wie Xing, LinkedIn und auch Online-Bewerberdatenbanken von besonderer Wichtigkeit.

Warum hat sich Active Sourcing noch nicht durchgesetzt?

Das könnte zum einen daran liegen, dass Firmen manchmal nicht so ganz wissen, wen Sie denn genau einstellen wollen. Denn Stelleninserate werden aufgrund von Floskeln, politisch korrekter Aufgabenformulierung und immer längeren Anforderungsprofilen zunehmend unverständlicher. Wenn man zum Beispiel den Gewinner der Goldenen Runkelrübe 2015, dessen Kandidatenprofil sich über eine ganze A4-Seite erstreckt, mit einem Stelleninserat von 1900 vergleicht, das sich auf 3 Zeilen beschränkt, dann könnte man durchaus zum Schluss kommen, dass die Firmen schon gar nicht mehr wissen, wen sie denn genau suchen. Nur so am Rande, die Goldene Runkelrübe ist ein Preis der unter anderen Henner Knabenreich jedes Jahr an die schlechtesten Stelleninserate verleiht. Beim Active Sourcing ist eine schwammige Zielgruppe ein grosses Problem. Ein gutes Stelleninserat bedingt nämlich die Kürze und Präzision einer Stellenanzeige von 1900. Dies bedeutet wiederum, dass man genau wissen muss, wen man sucht, um geeignete Kandidaten ansprechen und finden und zu können.

30595_Grafik1

Aber auch wenn man seine Zielgruppe von potenziellen Bewerbenden genau definiert hat, so fehlt es an geeigneten Tools, um die Nadel im Heuhaufen zu entdecken. Zwar gibt es Angebote, wie etwa das von LinkedIn Recruiter, die behaupten, aus einem weltweiten Talentpool genau die passenden Kandidaten heraussuchen zu können. Aber die Suche scheitert bereits an unterschiedlichen Sprachen. Gibt man zum Beispiel Java Entwickler/-in und Java Developer ein, so werden komplett unterschiedliche Ergebnisse geliefert. Im Allgemeinen hat LinkedIn ja auch eher Mühe, passende Resultate zu liefern, wenn man nicht auf Englisch sucht. Auch bei anderen Anbietern wie zum Beispiel dem Talentmanager von Xing oder Online-CV-Datenbanken sieht es nicht besser aus. Könnte es echt daran liegen, dass es nicht wirklich viel Kritik im Netz über die Unzulänglichkeiten solcher Sourcing Tools gibt, weil alle durchs Band hinweg ungefähr gut oder schlecht funktionieren?

Die häufig zu beobachtende Ungewissheit der Personalabteilungen, wen Sie einstellen sollen, und die Fehlerhaftigkeit der Analysetools führen dann dazu, dass viele Mitglieder von professionellen Netzwerken so viele vermeintlich persönliche Ansprachen erhalten, dass sie diese erst gar nicht mehr öffnen, sondern direkt aus dem Posteingang löschen. Denn meistens ist die Anfrage schlicht nicht passend oder sie ist so unpersönlich formuliert, dass die Eignung des Kandidaten im Schreiben nicht zu erkennen ist. Das trifft besonders zu auf Personen mit häufig nachgefragten Fähigkeiten wie zum Beispiel aus der IT-Branche. Dass solche verfehlten Anschreiben immer mehr zunehmen, trägt dann auch massgeblich zum schlechten Ruf von Active Sourcing bei.

Dazu kommt, dass Active Sourcing eine sehr aufwendige und teure Recruiting-Methode ist, warum sie meistens wohl nur für Spezialisten und Führungskräfte verwendet wird. Aber versteckt sich manchmal hinter der Entschuldigung „Ich habe keine Zeit für eine aktive Kandidatenansprache“ auch noch etwas mehr? Bei „Post and Pray“ ist es nämlich die Sache des Kandidaten im ersten Schritt, die Passung zwischen sich und dem Unternehmen zu beurteilen, während beim Active Sourcing diese Verantwortung der Personalabteilung zukommt. Vielleicht versteckt sich hinter dieser Aussage also auch ein wenig Angst vor dem Leistungsdruck, in ein paar Klicks wertvolle Kandidatenvorschläge liefern zu können oder müssen (was bei der Qualität der Suchresultate auf Netzwerken und Plattformen ja auch durchaus verständlich ist).

Wie könnte Active Sourcing effizient eingesetzt werden?

Wie wir gesehen haben, müssten manche Personalabteilungen sich mehr Zeit nehmen, individuellere Ansprachen zu schreiben und in erster Instanz ein klares Bild haben, wen sie einstellen wollen. Ich will mich im Weiteren aber noch ein wenig mit den technologischen Möglichkeiten befassen, wie man Active Sourcing effizient einsetzen könnte.

Mit LinkedIn und Xing hat man heutzutage Zugriff auf einen weltweiten Talentpool. Viele potenzielle Kandidaten haben etliche persönliche Informationen, wie Berufserfahrung, Fähigkeiten und Diplome erfasst. Mit einer solchen Menge an Daten müsste es eigentlich möglich sein, passende Kandidaten herauszufiltern. Das würde aber ein Tool benötigen, das über die gegenwärtige Suche über Stichworte und Filter hinausgeht und stattdessen das ganze Profil der LinkedIn- oder Xing-Mitglieder mit dem Profil einer Stelle abgleicht. Zudem müsste das bei einem globalen Netzwerk wie LinkedIn auch sprachübergreifend funktionieren. Damit ein Tool die richtigen potenziellen Bewerbenden finden kann, müsste es also nicht keywordbasiert sondern ontologiebasiert funktionieren. So eine ontologiebasierte Suche erkennt nämlich alle verwandten und synonymen Bezeichnungen für Berufe, Kenntnisse und Diplome. Sie macht damit eine heterogene Masse an Profilen wie bei LinkedIn erst vergleichbar. Mehr zum Unterschied zwischen keywordbasierter und ontologiebasierter Suche, Matching von komplexen Profilen und sprachübergreifender Suche können Sie in meinem Beitrag lesen.

Um den Personalabteilungen Abhilfe zu schaffen, ein präzises Kandidatenprofil zu erstellen, hat LinkedIn für seine neue Recruiter-Anwendung (LinkedIn Recruiter), die Anfang 2016 auf den Markt kommen wird, eine Funktion gebaut, die dem Anwender erlaubt, nicht mit Stichworten zu suchen, sondern mit einem Mitgliederprofil. Wenn man also kein klares Anforderungsprofil hat, sondern einfach einen weiteren Mitarbeitenden ein bisschen so wie ein bereits bestehendes Teammitglied sucht, dann kann man in LinkedIn nach ähnlichen Personen suchen. Eine gute Idee, ich bin aber gespannt, wie relevant die Suchresultate wirklich sein werden.

Ein effizienter Einsatz von Active Sourcing – auch wenn es Stelleninserate nicht komplett ablösen würde – könnte eine viel grössere Menge an potenziellen Kandidaten erreichen. Denn es zielt auch auf diejenigen ab, die nicht aktiv auf Stellensuche sind, aber dennoch offen für eine neue Stelle wären. Und das sind gemäss Talent Trends 2014 immerhin 85% der Arbeitskräfte. Zudem ertrinkt man beim Active Sourcing nicht in einer Flut von Bewerbungen, sondern kann sich eine Handvoll Kandidaten herauspicken. Was aber, wenn alle plötzlich effizient Active Sourcing betreiben würden und Active Sourcing wirklich das „Post und Pray“-Zeitalter ablösen würde? Dann würden sich die Firmen gegenseitig immer wieder die besten Mitarbeitenden abwerben. Der Markt um die besten Fachkräfte würde viel umkämpfter werden, und man müsste versuchen, diese mit mehr Mitteln an die eigene Firma zu binden. Das würde die Kosten für Active Sourcing noch viel mehr in die Höhe treiben. Ebenso würden natürlich die Löhne steigen, da die Mitarbeitenden mehr um Ihren Wert wissen. Zum Schluss kann man darum sagen, dass es also vielleicht am effizientesten ist, wenn nicht alle Active Sourcing effizient betreiben.

Der Beitrag ist Teil meiner Reihe Was Sie schon immer über technologische Trends und Themen im HR wissen wollten, aber bisher nicht zu fragen wagten.