JANZZ.technology提供可解释人工智能(Explainable AI)

在过去的十年里,由于大量生成的数据和不断增强的计算能力,机器学习(Machine Learning),特别是深度学习系统,取得了前所未有的突破。然而,盲目追求机器学习的成功,造成了我们过度容忍人工智能(AI)应用开发的过程。如今,越来越多的自治系统(autonomous system)导致机器缺乏解释其行为的能力。

由于大多数人工智能技术都是由私营公司开发,这些公司为了自身利益会确保他们的数据处理是保密的。此外,许多公司在人工智能技术中使用复杂的神经网络,他们甚至无法解释某些结果是如何得出的。

当然,如果这样的系统错误地预测了某些消费行为,那么后果可能不大。然而,如果这样的误判发生在自主车辆、医疗诊断、政策决策或者我们的工作匹配中,那又会怎样呢?相信在这样的情况下,我们很难盲目地信赖一个人工智能系统的决策过程。

今年年初,经济合作与发展组织(经合组织)提出了人工智能原则,旨在促进创新和可信赖的人工智能。在经合组织提出的五大原则中,其中一个原则更是明确指出,“围绕人工智能系统应该有透明度和负责任的披露,以确保人们了解基于人工智能的结果,并能够挑战他们。”[1]

可解释人工智能(Explainable AI)作为解决人工智能系统中“黑箱”决策问题的一种手段,最近在机器学习领域越来越多的被提及。如上所述,目前用于机器学习的大多数算法在如何和为什么做出决策方面都无法被人类理解。因此,很难诊断这些决策是否存在错误和偏见。这其中尤其包括深度学习神经网络方法的大多数流行算法。[2]

因此,包括经合组织在内的许多监管方都不断敦促企业增加可解释人工智能。在欧洲生效的《通用数据保护条例》规定,欧盟人民有权对任何算法决定进行“人工审查”。在美国,保险法促使公司对他们的决定做出详细说明,比如为什么拒绝为某一人群投保,或者为什么只向少数人群收取更高的保费。[3]

然而,当前的可解释人工智能也存在两个主要亟待解决的问题。首先,正确界定可解释人工智能的概念是一个挑战。用户应该意识到他们可以获取的关于人工智能应用知识的局限性。因为,如果企业别无选择,必须提供详细的解释,知识产权作为一个独特的卖点(Unique Selling Proposition)将会消失。[4]

第二个问题是绩效性和可解释性之间的权衡。我们是否需要对某些机器任务进行标准化,并对某些行业进行监管,迫使他们寻求透明的人工智能解决方案?即使这意味着扼杀了这些行业的开发潜力?

在JANZZ.technology,我们致力于向用户解释我们匹配候选人和职位的过程。我们独特的匹配软件抛开诸如性别、年龄或国籍等次要参数,使用真正重要的数据来寻找完美的候选人,比如技能、教育/培训、专业、经验等。

我们独特的匹配系统不单单给出一个最终匹配值,而是分解了所有评判标准,如功能、技能、语言和入职时间等。让用户对匹配结果有更充分的理解,并为员工再培训和技能提升提供参照。您想知道更多关于JANZZ.technology如何应用可解释人工智能解决方案的吗?请立即写信至 sales@janzz.technology

 

[1] OECD. 2019. OECD Principles on AI. URL :https://www.oecd.org/going-digital/ai/principles/ [2019.9.17].

[2] Ron Schmelzer. 2019. Understanding Explainable AI. URL: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/#6b4882fa7c9e[2019.9.17].

[3] Jeremy Kahn. 2018. Artificial Intelligence Has Some Explaining to Do. URL: https://www.bloomberg.com/news/articles/2018-12-12/artificial-intelligence-has-some-explaining-to-do[2019.9.17].

[4] Rudina Seseri. 2018. The problem with ‘explainable AI’. URL: https://techcrunch.com/2018/06/14/the-problem-with-explainable-ai/[2019.9.17].