JANZZ.technology oferece IA (Inteligência Artificial) explicável

Ao longo da última década, graças à disponibilidade de grandes conjuntos de dados e ao poder de computação mais avançado, a aprendizagem de máquina (ML), especialmente os sistemas de aprendizagem profunda, realizaram uma melhoria significativa. No entanto, o sucesso dramático do ML nos cegou e nos levou a tolerar o processo de aplicação de Inteligência Artificial (IA). Devido a seus sistemas cada vez mais autônomos, as máquinas são atualmente incapazes de esclarecer seus usuários sobre suas decisões e ações.

Hoje em dia, a maioria das AIs são feitas por empresas privadas que se certificam de manter o seu processamento de dados em segredo. Além disso, muitas empresas empregam redes neuronais tão complexas em tecnologias de IA que não há nenhuma explicação fornecida sobre como elas obtêm certos resultados.

Tal sistema pode não ter grandes consequências quando, por exemplo, prevêem erroneamente o próximo destino de viagem dos seus clientes. Mas se tivesse um impacto nos veículos autónomos, nos diagnósticos médicos, no processo de decisão ao fazer uma apólice ou mesmo no trabalho de alguém? Seria difícil concordar cegamente com o processo de tomada de decisão de um sistema se as consequências fossem como tal.

No início deste ano, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) apresentou seus princípios sobre a IA com o objetivo de promover a inovação e a confiabilidade. Um dos cinco princípios complementares baseados em valores para a gestão responsável de uma IA confiável é que “deve haver transparência e divulgação responsável em torno dos sistemas de IA para garantir que as pessoas entendam os resultados baseados em IA e possam desafiá-los”. [1]

Explicáveis IA (XAI) tem surgido recentemente no campo da aprendizagem de máquina para abordar a questão de decisões “caixa preta” dos sistemas de IA. Atualmente, a maioria dos algoritmos usados para ML não pode ser compreendido pelos seres humanos em termos de como e por que uma decisão foi tomada, como mencionado acima. Do mesmo modo, estes são bastante difíceis de diagnosticar por erros e vieses. Este é especialmente o caso da maioria dos algoritmos populares em abordagens de redes neuronais de aprendizagem profunda. [2]

Consequentemente, numerosas partes regulatórias, incluindo a OCDE, estão pedindo às empresas mais XAI. O GDPR (General Data Protection Regulation – Regulamento Geral de Proteção de Dados), que entrou em vigor na Europa proporcionou às pessoas na UE um “direito a uma revisão humana” de qualquer decisão algorítmica que possa potencialmente ter um impacto sobre elas. Nos EUA, as leis dos seguros obrigam as empresas a desenvolver as suas próprias decisões, tais como rejeitar a cobertura de um determinado grupo de pessoas ou cobrar apenas algumas com prémios mais elevados. [3]

No entanto, existem dois problemas principais associados ao XAI. Em primeiro lugar, definir corretamente o conceito de XAI mostra ser bastante desafiador. O que os usuários devem estar cientes e quais devem ser as limitações de seu conhecimento, também precisa ser esclarecido. Se as empresas não tivessem outra escolha senão fornecer explicações detalhadas para tudo, então a propriedade intelectual como uma proposta de venda única (USP) provavelmente desapareceria. [4]

O segundo fator problemático é a avaliação do trade-off em algumas tarefas entre desempenho e explicabilidade. Precisamos regular e padronizar para certas tarefas ou indústrias e forçá-las a buscar soluções de IA integradas de transparência, mesmo que isso signifique estabelecer uma carga muito alta para a potencialidade dessas indústrias?

Na JANZZ.technology tentamos explicar da melhor forma aos nossos usuários como combinamos candidatos e posições. O nosso software de matching exclusivo exclui parâmetros irrelevantes como gênero, idade ou nacionalidade e apenas compara habilidades, educação/treinamento, especializações, experiências, etc. Ele só usa aspectos que realmente importam para encontrar os candidatos perfeitos.

Além disso, em vez de dar uma pontuação de correspondência, o nosso sistema único de matching divide todos os critérios, tais como funções, habilidades, idiomas, disponibilidade e assim por diante. Isso permite que os usuários tenham uma melhor compreensão dos resultados e estabelece a base para a requalificação e aprimoramento da força de trabalho analisada. Quer saber mais sobre como nós da JANZZ.technology aplicamos soluções de IA explicáveis? Entre em contato conosco através do e-mail sales@janzz.technology

 

[1] OECD. 2019. OECD Principles on AI. URL :https://www.oecd.org/going-digital/ai/principles/ [2019.9.17].

[2] Ron Schmelzer. 2019. Understanding Explainable AI. URL: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/#6b4882fa7c9e[2019.9.17].

[3] Jeremy Kahn. 2018. Artificial Intelligence Has Some Explaining to Do. URL: https://www.bloomberg.com/news/articles/2018-12-12/artificial-intelligence-has-some-explaining-to-do[2019.9.17].

[4] Rudina Seseri. 2018. The problem with ‘explainable AI’. URL: https://techcrunch.com/2018/06/14/the-problem-with-explainable-ai/[2019.9.17].