JANZZ.technology offre d’IA explicable (XAI)
Au cours de la dernière décennie, grâce à la disponibilité de grands jeux de données et à une puissance de calcul plus avancée, l’apprentissage automatique, spécialement les systèmes d’apprentissage, s’est considérablement amélioré. Désormais, le succès dramatique de l’apprentissage automatique nous a obligé à tolérer le processus des applications d’AI. En raison de systèmes de plus en plus autonomes, les machines actuelles ne sont pas capables d’informer leurs utilisateurs de leurs actions.
À présent, la plupart des technologies d’IA sont développées par des entreprises privées qui veillent à ce que le traitement de données soit tenu secret. De plus, beaucoup d’entreprises utilisent des réseaux de neurones complexes en IA qui ne peuvent pas expliquer comment ils trouvent des résultats.
Si un system de ce type, par exemple, a un faux impact sur les déplacements des clients, il n’aura pas de conséquences significatives. Toutefois, que se passe-t-il si le système influence de façon erronée les véhicules autonomes, les diagnostics médicaux, l’élaboration de politiques ou l’emploi d’une personne ? Dans ce cas, il serait difficile d’approuver le processus décisionnel d’un tel système.
Au début de l’année, l’organisation de coopération et de développement économiques (OCDE) a proposé ses principes sur l’IA dans le but de promouvoir l’innovation et la fiabilité. L’un des cinq principes de valeur complémentaires pour une gérance responsable de l’IA dit que « il devrait avoir de la transparence et de la divulgation autour des systèmes d’IA afin que les gens comprennent les résultats de l’IA et puissent les contester. » [1]
L’IA explicable a émergée récemment dans le domaine d’apprentissage automatique pour aborder le sujet des décisions « black box » dans les systèmes d’IA. Comme nous l’avons mentionné ci-dessus, la plupart des algorithmes courants utilisés pour l’apprentissage automatique ne peuvent pas être compris par les humains en termes de comment et pourquoi une décision est prise. Par conséquent, il est difficile de diagnostiquer les erreurs et les biais dans ces décisions. Cela est spécialement vrai dans les algorithmes les plus populaires pour les approches de réseaux de neurones dans l’apprentissage profond. [2]
Conséquemment, de nombreux organismes régulatoires, y compris l’OCDE, ont poussé les entreprises vers plus d’IA. Le règlement général sur la protection des données (RGPD), qui est entré en vigueur en Europe, offrait aux citoyens de l’Union européenne un « droit à un examen humain » de tout algorithme. Aux États-Unis, les lois sur les assurances obligent les à expliquer pourquoi, par exemple, elles refusent la couverture de certains groupes ou pourquoi elles ne facturent qu’un petit nombre avec une prime plus élevée. [3]
Il y a deux problèmes principaux associés avec l’IA explicable. Premièrement, il est un défi de définir le concept de XAI correctement. Par ailleurs, les utilisateurs doivent être conscients des limitations de leurs connaissances. Si les entreprises n’avaient d’autre choix que de fournir des explications détaillées, la propriété intellectuelle en tant que promesse (anglais : unique selling position (USP)) disparaîtrait. [4]
Le deuxième facteur problématique est l’évaluation du compromis entre la performance et l’explicabilité. Est-ce que nous devrons standardiser des tâches et réguler les industries pour faire en sorte qu’elles cherchent des solutions d’IA intégrée transparentes ? Même si cela signifie mettre un très lourd fardeau sur le potentiel de ces industries ?
Chez JANZZ.technology, nous faisons notre mieux pour expliquer à nos clients la manière dont nous apparions les candidates et les postes. Notre logiciel d’appariement unique exclut les paramètres secondaires tels que le sexe, l’âge ou l’origine, et ne compare que les compétences, l’éducation, les spécialisations, les expériences, etc. Il utilise exclusivement les aspects qui importent vraiment dans le but de trouver les candidats parfaits.
Au lieu de donner une cote de correspondance, notre système d’appariement décompose tous les critères tels que les fonctions, les compétences, les langues et la disponibilité. Cela permet aux clients de mieux comprendre les résultats et crée les bases pour la requalification et le perfectionnement professionnelle de la main-d’œuvre. Est-ce que vous voulez savoir plus sur la façon dont JANZZ.technology applique les solution d’AI explicable ?
Veuillez écrire à l’adresse suivante sales@janzz.technology
[1] OECD. 2019. OECD Principles on AI. URL :https://www.oecd.org/going-digital/ai/principles/ [2019.9.17].
[2] Ron Schmelzer. 2019. Understanding Explainable AI. URL: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/#6b4882fa7c9e[2019.9.17].
[3] Jeremy Kahn. 2018. Artificial Intelligence Has Some Explaining to Do. URL: https://www.bloomberg.com/news/articles/2018-12-12/artificial-intelligence-has-some-explaining-to-do[2019.9.17].
[4] Rudina Seseri. 2018. The problem with ‘explainable AI’. URL: https://techcrunch.com/2018/06/14/the-problem-with-explainable-ai/[2019.9.17].