« Travailler de n’importe où », désormais un concept durable ?

Récemment, les débats sur l’avenir du travail flexible se sont intensifiés, entre outre, sur notre manière de travailler qui change constamment grâce à la technologie et la numérisation de nos jours. Actuellement, à cause du COVID-19, ce sujet revêt une importance fondamentale. Gartner a déclaré dans son rapport que 48 % des employés travailleront probablement à distance, comparé à 30 % avant la pandémie. [1]

Comment le lieu de travail a-t-il évolué au fil du temps ?

À l’époque, le lieu de travail était beaucoup moins axé sur la technologie et les conversations commerciales se déroulaient par téléphone fixe ou en personne. Les documents et les dossiers étaient tous seulement sur papier. Les employés étaient censés travailler de manière indépendante dans des cubicules assignés à leur égard. Depuis les années 50, des changements majeurs ont eu lieu et l’apparition du travail d’équipe, des ordinateurs, de l’internet et des logiciels de gestion a eu un impact considérable sur notre façon de travailler.

Au cours des 20 dernières années, l’un des changements les plus importants lié au lieu de travail a été la transformation technique du milieu digital. Le lieu de travail a connu des révolutions encore plus importantes telles que le télétravail, le zoom, l’espace de « co-working » et le travail flexible. L’élimination des lieux de travail fixes, connue sous le nom de travail flexible ou l’extension du travail basé sur l’activité, est apparue pour la première fois dans les entreprises technologiques de Silicon Valley. Essentiellement, les employés veulent de plus en plus de liberté pendant leurs heures travail et progressivement, leur domicile ou même un café deviennent leur deuxième bureau.

Le travail à distance, qui est prêt ou, plus précisément, qui en est capable ?

Dans un article publié par le Harvard Business Review, la robustesse des services numériques, de l’infrastructure Internet et des options de paiement numérique a été utilisée pour évaluer 42 économies mondiales importantes en termes de préparation au travail à distance. L’étude montre que les pays comme Singapour, le Royaume-Uni, les États-Unis, les Pays-Bas, la Norvège, le Canada et l’Allemagne sont mieux placés et préparés que d’autres, tels que l’Inde, l’Indonésie, la Thaïlande, le Chili, les Philippines et la Chine. Cependant, la disponibilité technologique n’est que le facteur externe qui déclenche la véritable réalisation du travail à distance, et elle peut être influencée par les efforts les dirigeants des pays, si ceux-ci décident d’investir dans l’infrastructures et la technologie.

Le facteur interne, c’est-à-dire la structure des différentes industries d’un pays, est ici le point essentiel. Dans les pays où les principales activités économiques se trouvent dans les secteurs agricole et manufacturier, il est peu probable que la main-d’œuvre travaille à distance, car les agriculteurs et les ouvriers ne peuvent tout simplement pas faire cela à domicile. En revanche, dans les pays où le secteur tertiaire (ou capital de connaissances) représente une grande partie du pouvoir économique, les employés ne sont plus liés à un lieu de travail fixe. Selon le « Knowledge Economic Index » (KEI) de l’institut de la banque mondiale, quelques pays classés en tête sont le Danemark, la Suède, la Finlande, les Pays-Bas, la Norvège, le Canada et la Suisse. [3]

Les inconvénients du travail à distance

Le COVID-19 a obligé de nombreuses entreprises du monde entier à proposer du travail flexible à temps plein. Dans les pays où ce modèle de travail n’est pas encore courant, ceux-ci doivent s’adapter rapidement à la nouvelle situation. Il est également important que ces pays soient conscients des inconvénients du travail flexible, surtout s’il est mal géré.

Si le temps passé sur le lieu de travail n’est plus le facteur déterminant dans le calcul du salaire de l’employé, il faut trouver des nouveaux critères, comme par exemple, le travail effectué. Les employés acceptent souvent des objectifs plus élevés, et également exagérés, afin de justifier leur efficacité et d’être considérés comme efficaces et dignes de confiance. Cela peut conduire à « l’autodestruction intéressée », qui peut menacer la santé. En conséquence, Les entreprises ne doivent pas trop exiger de leurs employés, car sinon, le modèle de travail flexible ne fait que perdre son utilité. [4]

La numérisation déplace les frontières entre les loisirs et le temps de travail, permettant aux gens d’organiser leur travail tout au long de la journée afin de mieux combiner travail et loisirs. Toutefois, une étude réalisée en Allemagne montre que la moitié des personnes interrogées estiment que la numérisation augmente l’intensité de leur travail. Ils se sentent plus stressés, confrontés à une quantité de travail accumulée, et ils ont également l’impression d’être plus étroitement surveillés. [4]

Les défis à l’ère de la « gig economy »

La flexibilité au travail est sans aucun doute l’une des principales caractéristiques de la gig economy qui change radicalement le marché du travail. Le travail d’aujourd’hui change constamment, devenant cognitivement plus complexe, plus dépendant de la technologie, plus coopératif, plus mobile et plus transnational. Cela pose un défi majeur pour les gouvernements et les entreprises d’aujourd’hui, qui veulent faire correspondre les personnes qualifiées et les compétences adéquates aux emplois et également, d’identifier les lacunes en matière de formation pour répondre aux futures demandes du marché.

Depuis près d’une décennie, JANZZ.technology travaille avec de nombreux marchés du travail dans le monde entier et suit les tendances qui façonnent l’avenir du monde du travail. Nous sommes actifs dans l’analyse sémantique, dans la recherche et la mise en correspondance dans un large variété de domaines professionnels. Nos technologies permettent de prendre des décisions de RH basées sur les données, d’accélérer l’analyse des personnes et d’utiliser les données pour prévoir les performances de l’entreprise. Pour en savoir plus sur ce que nous pouvons réaliser pour vous, veuillez contacter sales@janzz.technology

 

 

 

[1] Gartner. 2020. 9 Future of Work Trends Post-COVID-19. URL: https://www.gartner.com/smarterwithgartner/9-future-of-work-trends-post-covid-19/

[2] Bhaskar Chakravorti and Ravi Shankar Chaturvedi. 2020. Which Countries Were (And Weren’t) Ready for Remote Work? URL: https://hbr.org/2020/04/which-countries-were-and-werent-ready-for-remote-work

[3] Wikipedia. Knowledge Economic Index. URL: https://en.wikipedia.org/wiki/Knowledge_Economic_Index

[4] UZH Magazin. 2018. Interview: “Working flat out”. URL: https://www.magazin.uzh.ch/en/issues/magazin-18-4/gesundarbeiten.html

Bienvenue à Jimena Renée Luna, notre nouvelle vice-présidente de l’intégration des clients, marchés émergents

Nous sommes heureux d’annoncer que Jimena Renée Luna se joindra à JANZZ.technology en tant que nouvelle vice-présidente de l’intégration des clients, marchés émergents. Elle sera responsable de tous les comptes du LATAM, de l’EMEA et de l’Asie du Sud-Est.

Jimena est bien établie et très expérimentée dans le conseil aux gouvernements clients et aux organisations internationales en matière de politique technologique, de création d’emplois et de développement économique. Tout au long de sa carrière, elle a travaillé plus de 10 ans à la conception et à la mise en œuvre de projets connexes avec des équipes en Amérique latine, en Europe et en Afrique. À la World Bank, elle a effectué des recherches sur les marchés du travail et a lancé des solutions innovantes pour la création d’emplois. En outre, elle a travaillé pour le DSI américain à la Maison Blanche sur des politiques numériques visant à améliorer la manière dont les citoyens et les entreprises interagissent avec le gouvernement – contribuant ainsi à combler le gouffre entre les secteurs public et privé en matière de technologie et d’innovation. Plus récemment, elle a travaillé sur des projets en Afrique pour promouvoir l’économie numérique et le développement numérique.

Jimena est enthousiasmée par les produits de placement et les solutions digitales proposés par la société suisse JANZZ.technology à des clients du monde entier. Elle est convaincue que les plateformes digitales, les grandes données et l’IA seront les moteurs de l’économie du futur. À l’heure où le monde est confronté à une transformation digitale et à des changements sur le marché du travail, elle est ravie de pouvoir travailler directement avec des clients mondiaux pour leur fournir des solutions digitales pour la création d’emplois.

Jimena nous rejoindra le 15 mai. Elle commencera à travailler à partir de Washington, DC, puis sera transférée à notre siège à Zurich à une date ultérieure. Nous sommes impatients de voir Jimena mettre son expérience, son enthousiasme et son professionnalisme au service de notre mission, qui est de mieux servir nos clients.

N’hésitez pas à contacter Jimena par courriel à j.luna@janzz.technology . Elle parle couramment l’anglais, le français et l’espagnol et se fera un plaisir de répondre à toutes vos questions.

L’ontologie JANZZ – renforcement des capacités et création de l’intelligence artificielle (IA)

Cela fait maintenant 40 ans que les ontologies existent dans le secteur de la recherche sur l’intelligence artificielle (AI) [1]. Mais comme toute tendance, les ontologies ont également connu des hauts et des bas. Introduites dans les années 80, les ontologies sont finalement devenues populaires au milieu des années 90. L’opinion générale en 2000, après l’apparition de l’apprentissage automatique (AA), était qu’éventuellement, chaque tâche effectuée par un ordinateur (au moyen de l’IA et l’AA) pourrait être résolue à l’aide d’un algorithme intelligent. De nombreuses entreprises ont investi massivement dans ces algorithmes dans l’espoir de réaliser la prochaine percée de l’IA.

Avec le développement rapide de l’IA et l’AA, en particulier après l’émergence des réseaux neuronaux convolutifs (RNC), la technologie de base – l’apprentissage profond (AP) – a connu une croissance fulgurante en termes de taille des paramètres et de complexité informatique. De nos jours, certains des modèles les plus complexes ont atteint une échelle de plusieurs milliards de paramètres [2].

Néanmoins, certaines préoccupations ont été soulevées concernant l’AP actuel. Par exemple, quand il s’agit de l’apprentissage supervisé en reconnaissance d’images : les images utilisées pour entraîner les modèles d’IA doivent être identifiées manuellement en termes de position et de contour des objets cibles, afin que les modèles puissent trouver des caractéristiques de motifs implicites entre les données après avoir comparé différents résultats d’étiquetage. Si les êtres humains peuvent reconnaitre comment se déroule leur processus d’apprentissage durant l’enfance, cela facilite alors l’identification et la classification de de différents objets sans avoir recours à ce type d’instruction [2].

Les méthodes d’AP ont fait d’énormes progrès et sont maintenant capables d’extraire des connaissances à partir des données d’apprentissage. Cependant, ces connaissances ne sont pas explicitement intelligibles, car la formation dite « boîte noire » ne peut pas révéler les relations complexes dissimulées dans des modèles. Face à de nouveaux problèmes, les modèles actuels d’AP ne sont pas en mesure d’appliquer les connaissances acquises pour résoudre de nouveaux défis avec une efficacité absolue [2].

Il existe un autre sujet qui engendre de grandes inquiétudes concernant les données importantes et la question de la protection de la vie privée, liée à ceux-ci. De plus, les méthodes actuelles d’AP sont basées sur les grandes données, ce qui ne peut s’appliquer aux industries qui génèrent des quantités minimes de données, dans certains domaines comme la médecine et les ressources humaines. Dans ces cas, les systèmes d’AI doivent avoir la capacité de raisonner et juger, ce qui ne peut être fructueux que dans certains domaines. [3]

De nombreuses ontologies puissantes existent déjà pour des domaines spécifiques, par exemple des entreprises du secteur financier (FIBO) ainsi que beaucoup d’autres pour les soins de santé, la géographie ou les emplois. Il est généralement admis que l’intégration des connaissances et l’AP sont des idées importantes pour amplifier l’efficacité de l’AP. C’est pour cela que les ontologies sont revenues sur le devant de la scène, avec de nombreux équivalents tels que des graphiques ou des représentations des connaissances.

Chez JANZZ.technology, nous avons commencé à construire notre ontologie – JANZZon ! – en 2008, avant que le géant de la technologie, Google, n’invente et popularise le terme « graphe de connaissances ». JANZZ.technology a construit son ontologie en faisant appel à des experts du domaine provenant de milieux différents (par ex. du droit de la propriété intellectuelle, de la dynamique des fluides, de la réparation automobile, de la chirurgie à cœur ouvert et des systèmes éducatifs et professionnels).

Aujourd’hui, JANZZon ! est la plus grande représentation encyclopédique multilingue des connaissances dans le domaine des données sur les professions. JANZZon est principalement axé sur les emplois, les classifications professionnelles, les compétences matérielles et humaines et les formations/qualifications. Le nombre de nœuds et de relations stockés s’élève à plus de 350 millions !

Intégré aux taxonomies de consultation des données et des experts, JANZZon ! couvre ESCO, O*Net, ISCO-08, GB/T 6556-2015, DISCO II et la taxonomie des compétences britanniques de Nesta, pour n’en citer que quelques-unes. Actuellement, 9 langues (l’allemand, l’anglais, le français, l’italien, l’espagnol, le portugais, le néerlandais, l’arabe et le norvégien) couvrent entièrement les professions, les compétences, les spécialisations, la fonction, l’éducation, etc. et nous travaillons à atteindre le même niveau dans un total de 40 langues en 2020.

Étant le socle de notre technologie de mise en correspondance des emplois et des compétences, JANZZon ! représente la connaissance au niveau le plus profond, où toutes les entités ont été codées et vectorisées dans l’espace sémantique. Par conséquent, lors de la recherche et de la mise en correspondance, notre technologie peut véritablement comprendre un concept et sa signification sémantique et ainsi, garantir des résultats significatifs.

Si vous vous demandez comment les ontologies peuvent vous aider à réaliser des applications intelligentes et à renforcer vos données dans les domaines des ressources humaines et des marchés du travail, n’hésitez pas à nous contacter. Veuillez écrire à sales@janzz.technology

 

[1] ODSC. 2018. Where Ontologies End and Knowledge Graphs Begin. URL: https://medium.com/predict/where-ontologies-end-and-knowledge-graphs-begin-6fe0cdede1ed [2019.11.20]

[2] Li Jun. 2019. Shen Du Xue Xi: Xin Shi Dai De Lian Jin Shu. URL : https://www.ftchinese.com/story/001084827?page=1&archive [2019.11.20]

[3] Cai Fangfang. 2019. Qin Hua Zi Ran Yu Yan Chu Li Ke Xue Jia Sun Maosong: Shen Du Xue Xi Peng Pi Zhi Hou, Wo Men Hai Neng Zuo Shen Me? URL: https://www.infoq.cn/article/OvhfhpPChTLpsMgrf43N [2019.11.20]

Le potentiel de l’intelligence artificielle dans la gérance des ressources humaines

L’intelligence artificielle (IA) est sans aucun doute un outil puissant. Sa valeur économique augmente énormément et transforme de nombreux secteurs tels que l’industrie manufacturière, FinTech, la santé et l’industrie automobile. Les travailleurs des finances et du marketing connaissent beaucoup de succès avec les technologies d’IA, tandis que les gestionnaires des ressources humaines (RH) trouvent plutôt difficile d’intégrer ces technologies dans leurs pratiques quotidiennes.

Prasanna Tambe, Peter Cappelli et Valery Yakubovich disent dans leurs recherches : « Il y a des différences systémiques et structurelles dans les RH qui rendent plus difficile l’élaboration d’un système fondé sur l’IA. « [1] La qualité et le pouvoir explicatif de Big Data et de l’intelligence artificielle étant limités, ils sont encore considérés comme non conventionnels dans les domaines des RH et de l’emploi. Afin de mieux comprendre ce sujet, les problèmes d’IA doivent être considérés sous l’angle de la science des données dans la gestion des RH.

Les pratiques en matière de RH posent trois grands défis en ce qui concerne la science des données. Le premier problème est le manque de cohérence dans la gestion des processus RH à travers la vie professionnelle. Par exemple, pour déterminer quel candidat devrait être embauché ou qui devrait être promu, il est crucial de consigner et d’analyser de façon cohérente les critères et les compétences qui ont été les facteurs décisifs dans le processus d’embauche précédent.

Le deuxième problème dans les pratiques RH est la limitation des ensembles de données produits dans la gestion des RH. Contrairement à certains secteurs comme le marketing et la finance, où beaucoup de données sont générées et facilement accessibles, la collecte de données dans la gestion des RH fait face à des défis majeurs en termes de quantité et de qualité. En outre, les données dans la gestion des ressources humaines sont souvent non structurées (sur papier, Excel ou PDF). Par conséquent, il est difficile pour l’ordinateur de traiter les données.

La dernière difficulté concerne les questions éthiques liées au traitement des données. Les résultats des décisions RH peuvent avoir un impact significatif sur la carrière d’une personne. Il est donc impératif de réfléchir à la manière dont l’équité et la transparence peuvent être réalisées. D’autre part, il est également crucial de savoir comment les employés réagissent à des résultats qui ne sont basés que sur des algorithmes basés sur des données. Morgan Hampton de Tesla a déclaré que « le recrutement devrait être automatisé autant que possible, l’embauche devrait rester humaine ».

En tenant compte de ces trois questions, lorsque les gestionnaires de RH cherchent des solutions d’IA, ils devraient se concentrer sur les aspects suivants pour utiliser plus efficacement l’IA. Les gestionnaires de RH doivent créer le processus des RH qui est prêt pour l’ère numérique ainsi que la technologie de l’IA.

À présent, les technologies d’IA sont indépendamment séparées, par exemple dans le recrutement et l’acquisition de talent, le management de gestion de la paie et dans les transactions de self-service. Cependant, elles manquent un mécanisme pour générer les données qui peut assister l’ensemble du processus d’IA dans les pratiques de RH.

Souvent, les responsables de RH ne conservent que les applications qui les intéressent et ignorent celles qui sont éliminées. Cela conduit à une conclusion et à une analyse unidimensionnelles[1]. Tous ces critères devraient être respectés lors de la collecte des données et devraient être évalués à terme pour faciliter l’élaboration de modèles de Big Data et de processus d’IA.

En outre, il est important de générer des données de manière durable. Par exemple, il existe des applications d’IA qui peuvent prédire quels travailleurs quitteront bientôt leur emploi et certaines permettent de suivre les points de données dans les réseaux sociaux ou les courriels des employés [2]. Si les employés étaient au courant d’un tel système, ils changeraient probablement leur comportement et produiraient délibérément des données trompeuses.

L’année passée, l’histoire sur l’outil de recrutement d’IA d’Amazon qui est biaisé contre les femmes étant la preuve que l’apprentissage automatique peut reproduire les attitudes humaines. Le sexe n’est pas le seul aspect, qui peut être à l’origine de la discrimination. L’âge, la nationalité ou l’ethnicité peuvent également avoir un impact négatif, empêchant des entreprises de recruter de manière inclusive et diversifiée. Les gestionnaires de RH doivent collecter avec soin des échantillons de données représentatifs et ils devraient chercher des solutions d’IA explicables. Les réseaux neuronaux complexes de l’apprentissage profond sont loin d’être explicites.

A ce jour, les critères de données standards que les responsables de RH doivent respecter tout au long du cycle de pratique RH n’existent pas encore. Cela signifie que les gestionnaires de RH doivent faire équipe avec le service informatique interne de leur entreprise ou avec des fournisseurs d’IA externes, afin de déterminer quelles données sont tracées et comment il faut les mesurer, pour ainsi établir les meilleures pratiques pour l’IA dans leur entreprise.

Chez JANZZ.technology, nous croyons que la collecte et la structuration des données sont fondamentales pour créer de Smart Data. Notre outil d’analyse extrait les entités correctes du papier, d’Excel ou de PDF, assurant un traitement des données de bout en bout équitable dès le début. Voulez-vous savoir plus sur notre analyseur et comment nous pouvons vous aider dans votre voyage de transformation AI ? Veuillez écrire à sales@janzz.technology

 

 

[1]Prasanna Tambe, Peter Cappellli and Valery Yakubovich. 2019. Artificial intelligence in human resources management: Challenges and a path forward. URL:https://www.researchgate.net/profile/Peter_Cappelli/publication/328798021_Artificial_Intelligence_in_Human_Resources_Management_Challenges_and_a_Path_Forward/links/5c5edc7f299bf1d14cb7dc5f/Artificial-Intelligence-in-Human-Resources-Management-Challenges-and-a-Path-Forward.pdf [2019.10.20]

[2] Samantha Mclaren. 2019. Here’s how IBM predicts 95% of its turnover using data. URL:https://business.linkedin.com/talent-solutions/blog/artificial-intelligence/2019/IBM-predicts-95-percent-of-turnover-using-AI-and-data[2019.10.20]

JANZZ.technology offre d’IA explicable (XAI)

Au cours de la dernière décennie, grâce à la disponibilité de grands jeux de données et à une puissance de calcul plus avancée, l’apprentissage automatique, spécialement les systèmes d’apprentissage, s’est considérablement amélioré. Désormais, le succès dramatique de l’apprentissage automatique nous a obligé à tolérer le processus des applications d’AI. En raison de systèmes de plus en plus autonomes, les machines actuelles ne sont pas capables d’informer leurs utilisateurs de leurs actions.

À présent, la plupart des technologies d’IA sont développées par des entreprises privées qui veillent à ce que le traitement de données soit tenu secret. De plus, beaucoup d’entreprises utilisent des réseaux de neurones complexes en IA qui ne peuvent pas expliquer comment ils trouvent des résultats.

Si un system de ce type, par exemple, a un faux impact sur les déplacements des clients, il n’aura pas de conséquences significatives. Toutefois, que se passe-t-il si le système influence de façon erronée les véhicules autonomes, les diagnostics médicaux, l’élaboration de politiques ou l’emploi d’une personne ? Dans ce cas, il serait difficile d’approuver le processus décisionnel d’un tel système.

Au début de l’année, l’organisation de coopération et de développement économiques (OCDE) a proposé ses principes sur l’IA dans le but de promouvoir l’innovation et la fiabilité. L’un des cinq principes de valeur complémentaires pour une gérance responsable de l’IA dit que « il devrait avoir de la transparence et de la divulgation autour des systèmes d’IA afin que les gens comprennent les résultats de l’IA et puissent les contester. » [1]

L’IA explicable a émergée récemment dans le domaine d’apprentissage automatique pour aborder le sujet des décisions « black box » dans les systèmes d’IA. Comme nous l’avons mentionné ci-dessus, la plupart des algorithmes courants utilisés pour l’apprentissage automatique ne peuvent pas être compris par les humains en termes de comment et pourquoi une décision est prise. Par conséquent, il est difficile de diagnostiquer les erreurs et les biais dans ces décisions. Cela est spécialement vrai dans les algorithmes les plus populaires pour les approches de réseaux de neurones dans l’apprentissage profond. [2]

Conséquemment, de nombreux organismes régulatoires, y compris l’OCDE, ont poussé les entreprises vers plus d’IA. Le règlement général sur la protection des données (RGPD), qui est entré en vigueur en Europe, offrait aux citoyens de l’Union européenne un « droit à un examen humain » de tout algorithme. Aux États-Unis, les lois sur les assurances obligent les à expliquer pourquoi, par exemple, elles refusent la couverture de certains groupes ou pourquoi elles ne facturent qu’un petit nombre avec une prime plus élevée. [3]

Il y a deux problèmes principaux associés avec l’IA explicable. Premièrement, il est un défi de définir le concept de XAI correctement. Par ailleurs, les utilisateurs doivent être conscients des limitations de leurs connaissances. Si les entreprises n’avaient d’autre choix que de fournir des explications détaillées, la propriété intellectuelle en tant que promesse (anglais : unique selling position (USP)) disparaîtrait. [4]

Le deuxième facteur problématique est l’évaluation du compromis entre la performance et l’explicabilité. Est-ce que nous devrons standardiser des tâches et réguler les industries pour faire en sorte qu’elles cherchent des solutions d’IA intégrée transparentes ? Même si cela signifie mettre un très lourd fardeau sur le potentiel de ces industries ?

Chez JANZZ.technology, nous faisons notre mieux pour expliquer à nos clients la manière dont nous apparions les candidates et les postes. Notre logiciel d’appariement unique exclut les paramètres secondaires tels que le sexe, l’âge ou l’origine, et ne compare que les compétences, l’éducation, les spécialisations, les expériences, etc. Il utilise exclusivement les aspects qui importent vraiment dans le but de trouver les candidats parfaits.

Au lieu de donner une cote de correspondance, notre système d’appariement décompose tous les critères tels que les fonctions, les compétences, les langues et la disponibilité. Cela permet aux clients de mieux comprendre les résultats et crée les bases pour la requalification et le perfectionnement professionnelle de la main-d’œuvre. Est-ce que vous voulez savoir plus sur la façon dont JANZZ.technology applique les solution d’AI explicable ?

Veuillez écrire à l’adresse suivante sales@janzz.technology

 

 

[1] OECD. 2019. OECD Principles on AI. URL :https://www.oecd.org/going-digital/ai/principles/ [2019.9.17].

[2] Ron Schmelzer. 2019. Understanding Explainable AI. URL: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/#6b4882fa7c9e[2019.9.17].

[3] Jeremy Kahn. 2018. Artificial Intelligence Has Some Explaining to Do. URL: https://www.bloomberg.com/news/articles/2018-12-12/artificial-intelligence-has-some-explaining-to-do[2019.9.17].

[4] Rudina Seseri. 2018. The problem with ‘explainable AI’. URL: https://techcrunch.com/2018/06/14/the-problem-with-explainable-ai/[2019.9.17].

 

 

 

 

Suisse 2030: Les chances et dangers de la digitalisation

Des métiers disparaîtront du fait de la digitalisation – rien de nouveau pour nos oreilles. La première étude approfondie sur les effets de la digitalisation d’ici 2030 explique des faits dévastateurs : Rien qu’en Suisse, au moins 1’000’000 d’emplois vont disparaître. Un nombre effrayant pour neuf millions d’habitants. McKinsey & Company ont découvert que presque toutes les industries sont effectivement touchées, mais que la digitalisation crée aussi de nouveaux emplois et de la productivité.

Capacités manuelles et cognitives particulièrement à risque
L’étude McKinsey &  » En savoir plus sur: Suisse 2030: Les chances et dangers de la digitalisation  »

Où sont les « nerds » de l’informatique ? – Plus de 40 000 spécialistes en TIC manquent en Suisse

L’association professionnelle suisse des TIC a choqué par cette incroyable réalité : D’ici 2026, il y aura une pénurie de 40 300 personnes dans le secteur des technologies de l’information et de la communication (TIC). Même pour un pays qui compte un peu moins de 9 millions d’habitants, ceci s’applique aussi à la Suisse. C’est le résultat d’une étude fondamentale réalisée chaque année par l’association, qui analyse les besoins du marché du travail, le nombre de stagiaires,  » En savoir plus sur: Où sont les « nerds » de l’informatique ? – Plus de 40 000 spécialistes en TIC manquent en Suisse  »

Pourquoi vos compétences douces surpassent vos compétences techniques

Tout le monde parle de la digitalisation. « Nous devons nous préparer à la digitalisation maintenant ». « Entraînez-vous à la digitalisation ». C’est ce que disent les médias, les entreprises, le voisin de table de la cantine de l’entreprise. Et même les politiciens du monde entier ne sont aucunement inférieurs à cela et ont pris des précautions suffisantes : Les États-Unis ont une « stratégie de gouvernement digital », le gouvernement polonais a tout un ministère pour cela.  » En savoir plus sur: Pourquoi vos compétences douces surpassent vos compétences techniques  »

Protégez les jeunes: Comment les accidents du travail et les maladies coûtent des vies et de l’argent dans le monde entier.

Les jeunes sont beaucoup plus souvent touchés par les accidents du travail et les problèmes de santé liés à leur travail que les employés plus âgés. D’après l’Agence européenne pour la sécurité et la protection de la santé, ils sont jusqu’à 40 % plus susceptibles d’être victimes d’accidents du travail. Les jeunes employés doivent donc être mieux protégés et éduqués par l’employeur.
Les Nations Unies définissent les jeunes travailleurs comme étant des travailleurs âgés de 15 à 24 ans.  » En savoir plus sur: Protégez les jeunes: Comment les accidents du travail et les maladies coûtent des vies et de l’argent dans le monde entier.  »

Toujours plus de bruit pour rien…. ou pourquoi le buzz sur Big Data et l’intelligence artificielle dessert davantage l’auto-marketing que les faits et le progrès.

Tous les deux jours, nous produisons la quantité de données qui avait été produite au total jusqu’en 2003. Déjà en 2010, l’ancien PDG de Google, Eric Schmidt, choqua par la révélation de ce fait et la production de données a bien sûr subit une accélération depuis. Bien que le «traitement de masses de données» ne soit pas nouveau, l’engouement pour le terme plus connu sous le terme de «Big Data» n’a réellement commencé qu’au cours des dernières années [1]. Mais bien trop rapidement et beaucoup se perdent dans cette jungle de données sans cesse croissante et de méthodes abscons.

 

Les coïncidences sont incalculables

Parce que «davantage de données ne signifie aucunement un plus grand savoir», proclame succinctement Gerd Antes dans un entretien avec le Tagesanzeiger. Le mathématicien critique avec virulence le battage publicitaire autour de l’utilisation de Big Data, car la masse de données rendrait les corrélations aléatoires plus probables. Ainsi par exemple, la consommation de fromage par habitant et le nombre de décès causés par l’enchevêtrement dans les draps de lit aux États-Unis présentent une courbe identique. Alors qu’une analyse machine aurait pu en tirer des conclusions, un scientifique humain reconnaît immédiatement qu’il s’agit d’une coïncidence. [2]

Big, bigger, big data? N’exagérez pas vos réussites.

Cependant, selon de nombreux adeptes de Big Data, les coïncidences n’existent plus. Si suffisamment de données sont disponibles, ces adeptes croient à présent que toutes les interrelations peuvent être calculées à l’avance. Et ce, grâce à la machine ou à l’apprentissage profond et aux analyses correctes. L’expérience et les ensembles de formation disponibles (du passé) seraient amplement suffisants pour cela, et il n’y aurait pratiquement pas ou presque pas de zones d’erreur en raison de données manquantes ou non pertinentes. Cette conclusion est absolument fatale. Bien sûr, certains domaines, périodes temporelles et interrelations, etc. pour lesquels quelque chose est plus ou moins susceptible de se produire peuvent être identifiés plus facilement. Ce qui ne signifie pas pour autant qu’aucune coïncidence ou déviation significative n’est possible. Ainsi, par exemple, comment une analyse des données recueillies dans le passé peut-elle prédire avec précision les accidents de la route à l’avenir? Ou celui des maladies? Car les progressions de maladies – et donc les données numériques sur les patients – sont loin d’être toujours complètes, uniformes et suffisamment significatives. [2]

 

L’analyse des données peut donc constituer une menace pour la vie…

Surtout dans le domaine de la médecine, Gerd Antes n’est pas le seul à mettre en garde contre le battage publicitaire autour de Big Data et de l’intelligence artificielle. Si une méthode de traitement incorrecte est appliquée sur la base des résultats d’une grande analyse de données et de l’apprentissage machine, les effets peuvent être très dangereux – pour l’humain, pour le portemonnaie et pour la réputation. Car avec une telle quantité de données, les véritables corrélations et incohérences ne seront peut-être même pas détectées. Des corrélations et des incohérences qui peuvent menacer ou sauver des vies. [2]

Très récemment, IBM refaisait la une des gros titres négatifs lorsque l’entreprise de média STAT avait analysé les documents internes d’IBM pour un rapport interne qui concluaient que Watson for Oncology avait recommandé à plusieurs reprises des traitements «dangereux et incorrects» contre le cancer. Des documents qui révélaient également que les employés et les cadres supérieurs d’IBM en étaient informés. Bien que ces recommandations n’aient pas encore permis de prouver un seul décès relatif, de nombreux hôpitaux renommés ont décidé de cesser d’utiliser cette technologie de plusieurs millions de dollars. [3]

À ce titre, les premiers signes distincts d’une remise en question et d’une approche un peu plus rationnelle peuvent être constatés dans ce domaine. En définitive, l’engouement apparemment illimité pour l’ordinateur miracle Watson d’IBM dans le domaine de la médecine d’il y a deux ou trois ans est en train de s’estomper. De nombreuses autres applications similaires suivront. Au plus tard lorsqu’il s’agira davantage de faits, de résultats fiables et de pertinence, et moins d’auto-marketing à grande échelle et de promesses charpentées des groupes technologiques mondiaux bien connus et de leurs produits souvent encore très expérimentaux. Ce qui toutefois est certain, c’est que les résultats et les apprentissages de la médecine décrits précédemment peuvent être transférés presque 1:1 sur le marché numérique des ressources humaines, où ils sont utilisés pour faire correspondre les emplois et les talents, par exemple.

 

Les savoirs dignes de confiance proviennent d’experts

ll y a plus de cinq ans déjà, Cornel Brücher provoquait avec son ouvrage «Rethink Big Data» et qualifiait les adeptes de Big Data de crétins. Chez JANZZ, nous l’avons vu de façon très similaire depuis le tout début. Il n’est tout simplement pas possible d’acquérir des connaissances dans le domaine des emplois et des CV, des données professionnelles plus complexes, etc. uniquement avec l’apprentissage machine. Quiconque affirme le contraire a de toute évidence tort. Et ces affirmations restent fausses et inutiles, quelle que soit la fréquence à laquelle les mêmes idées et produits sont promus et commercialisés à nouveau. Et ce, même si l’on investit beaucoup plus d’argent dans ces technologies qu’auparavant. De ce fait, et malgré les nombreux investissements réalisés, les résultats qui reposent sur cette même approche restent largement insuffisants et ne se sont guère améliorés au cours des dernières années. Et ce, nonobstant la quantité de données utilisées, par exemple pour LinkedIn, IBM & Co. Les résultats de l’apprentissage machine sont non seulement de plus en plus sujets à l’erreur – plus les facteurs et les variables se cumulent, et par conséquent des règles et des relations compliquées sont ajoutées, plus ces corrélations incorrectes ou parfois même des causalités supposées en résultent. Les Knowledge Graphs, voire les ontologies, créent par contre la possibilité de cartographier et d’utiliser les connaissances d’une manière extrêmement profonde et structurée. Du fait que les connaissances et les savoirs des experts dans leur domaine sont archivés et connectés de manière structurée – et non pas calculés par des informaticiens qui sont des experts en programmation et non pas par exemple, en médecine ou dans différents domaines de l’ingénierie ou de l’investissement bancaires – la connaissance des Knowledge Graphs est parfaitement vérifiable et digne de confiance. Une caractéristique majeure qui manque aux calculs basés sur l’apprentissage machine. Comme par exemple dans le domaine des données sur les professions: parce qu’un Knowledge Graph reconnaît la différence et les liens entre les compétences, les expériences, les fonctions, les spécialisations et la formation, il sait que pour le titre du poste à pourvoir «T» avec la formation «F», la compétence «C» est importante. Prenons l’exemple d’un «Senior Cloud Architect»: un Knowledge Graph reconnaît ce titre de poste et sait par exemple que les études de master «Computer Science» pourraient un jour mener à ce titre si le candidat peut prouver en même temps sa compétence en «Cloud Solution Development» ainsi que plusieurs années d’expérience professionnelle.

 

Google aussi s’appuie sur des experts, voire sur un Knowledge Graph pour les données sur les professions

Google aussi n’avait pas négligé de le proclamer lorsque l’entreprise a lancé son Knowledge Graph «Google Cloud Jobs API , sur lequel est basé son moteur de recherche d’emplois Google (voir Google lance son moteur de recherche d’emploi par ontologie. Et alors?). Google s’était alors rendu compte qu’une approche ontologique permettait d’obtenir de meilleurs résultats de recherche. Dans le cas d’une recherche sémantique basée sur la connaissance d’un Knowledge Graph, aucun résultat qui ne serait similaire au terme de recherche, tel que «RH Admin» ou «Logiciel Admin», ne serait ajouté à une recherche «Admin Assistant administratif». De même qu’une analyse de Big Data pourrait éventuellement identifier des corrélations aléatoires, suggérant des emplois complètement différents, des emplois tiers qui n’ont en commun que des exigences de compétences similaires (ainsi, les ingénieurs et les employés de bureau ont certainement tous besoin de connaître Microsoft Office).

Connaître la différence et donc connaître vraiment la recherche d’emploi et la compréhension générale des professions et de leurs interrelations n’est généralement possible qu’avec un Knowledge Graph. Matt Moore, directeur du produit Google Cloud, a expliqué la signification et la raison d’être de l’API Google Cloud Jobs: «Nous voulons donner à tous les employeurs et tous les candidats de meilleures expériences lors de leur recherche d’emploi. Parce que, soyons réalistes, embaucher les bonnes personnes est la chose la plus importante que les entreprises doivent faire.» [4]

 

Seuls les humains disposent des connaissances humaines requises…

Et cela soulève la question de savoir en qui on peut vraiment avoir confiance lorsqu’il s’agit de ce qui est probablement la tâche la plus importante: la sélection du personnel. C’est une histoire sans fin: à en juger par le CV, le candidat/la cadidate était parfait/parfaite, mais au niveau humain, ça n’allait pas du tout. Tirer de telles conclusions, qui ne suggèrent pas les données (numériques) disponibles, relève du domaine des spécialistes des RH, c’est-à-dire des humains.

Les outils technologiques peuvent gérer et classer les CV en fonction de connaissances évidentes telles que la formation, les compétences, l’expérience, etc. pour autant que le flux des données soit gérable et, surtout, correctement évalué. Même le meilleur candidat sur papier peut soudainement disparaître dans la foule en raison du grand nombre de critères mal interprétés ou mal compris. Et le CV n°1 n’appartient pas toujours au meilleur candidat, voire, à la meilleure candidate. De plus en plus d’entreprises technologiques et de start-ups tentent encore de numériser cette dimension et de la contrôler grâce à l’intelligence artificielle – dans la ferme conviction qu’ils vont finalement maîtriser ce dernier facteur humain qui subsiste dans les processus. Et ce, toujours avec des méthodes le plus souvent inadaptées et avant même que les données numériques existantes puissent être traitées, les données numériques existantes aient pu être correctement utilisées et évaluées. C’est un fait sur lequel les spécialistes et les principaux fournisseurs de technologies qui s’occupent de processus et de produits sérieux et fiables dans le domaine des ressources humaines numériques depuis plusieurs années, sont fondamentalement d’accord. Et pas seulement depuis que Google a également pénétré ce segment de marché. [5]

 

Big Data limite le développement des connaissances et des savoirs

Par conséquent, davantage de données ne signifie vraiment pas davantage de connaissances. Les connaissances doivent être structurées, stockées et validées. Et des experts humains doivent impérativement être impliqués. La prudence est donc de mise dans la lutte contre le flux de données, qui au final ne peuvent plus être structurées et engendrent des corrélations aléatoires. Alexander Wissner-Gross, scientifique à l’Université de Harvard et au Massachusetts Institute of Technology (MIT), l’a résumé de façon intéressante: «La nouvelle la plus importante de notre époque est peut-être que les ensembles de données – et non les algorithmes – pourraient être le facteur contraignant décisif pour le développement de l’intelligence artificielle au niveau humain.» [6]

C’est donc avant tout le contenu de la connaissance qui est prometteur, et non la quantité de données dont cette connaissance doit être extraite. Il est donc prometteur, voire rassurant, de constater que dans de nombreux domaines importants tels que la médecine ou la sélection du personnel, seuls des experts ou des outils basés sur une véritable expertise peuvent établir des jugements fiables et corrects. Tout cela rend le battage médiatique autour de Big Data et l’Intelligence artificielle dans les ressources humaines un peu mieux supportable. Et notre mission chez JANZZ.technology «We turn Big Data into Smart Data»  est plus que jamais d’actualité.

 

[1] Brücher, Cornel. 2013. Rethink Big Data. Frechen: MITP-Verlag.

[2] Straumann, Felix. «Vieles ist blankes Marketing». Big Data. In: Tagesanzeiger (2018), Nr. 168, P. 32.

[3] Spitzer, Julie. 2018. IBM’s Watson recommended “unsafe and incorrect” cancer treatments, STAT report finds. URL: https://www.beckershospitalreview.com/artificial-intelligence/ibm-s-watson-recommended-unsafe-and-incorrect-cancer-treatments-stat-report-finds.html [2018.08.01].

[4] De la vidéo: Google Cloud Platform. 2017. Google Cloud Jobs API: How to power your search for the best talent (Google Cloud Next ’17). URL: https://www.youtube.com/watch?v=Fr_8oNKtB98 [2018.08.03].

[5] Watson, Christine. 2018. RecTech is creating more – not less – need for the human touch. URL: http://www.daxtra.com/2018/08/03/rectech-creating-more-need-for-human-touch/?utm_content=75449136&utm_medium=social&utm_source=twitter [2018.08.09].

[6] Alexander Wissner-Gross. 2016. Datasets Over Algorithms. URL: https://www.edge.org/response-detail/26587 [2018.07.27].