JANZZ.technology ofrece IA explicable

Gracias a la disponibilidad de grandes conjuntos de datos, así como a una mayor y más avanzada potencia informática, durante la última década se ha logrado una mejora significativa en el aprendizaje automático (Machine Learning), especialmente en los sistemas de aprendizaje profundo. Sin embargo, el dramático éxito del ML nos deslumbra de tal manera, que aceptamos, sin cuestionamiento. los procesos detrás de las aplicaciones de Inteligencia Artificial (IA). Las máquinas, a pesar de sus cada vez más autónomos sistemas, no son capaces explicar a sus usuarios(as) las razones de sus resultados y decisiones.

Actualmente, la mayoría de las aplicaciones de IA son desarrolladas por empresas privadas, las cuales presumen de un tratamiento adecuado y secreto de sus datos. Adicionalmente, muchas empresas emplean redes neuronales tan complejas en las tecnologías de IA, que no se explica cómo consiguen ciertos resultados.

Lo anteriormente explicado puede no tener grandes consecuencias, cuando, por ejemplo, una aplicación predice erróneamente el próximo destino de viaje de los clientes registrados. Pero, ¿qué pasaría si las predicciones de la máquina tuvieran un impacto en los vehículos autónomos, en los diagnósticos médicos, en la toma de decisiones a la hora de diseñar una política o incluso en el trabajo de alguien? Sería difícil confiar ciegamente en un proceso automatizado de toma de decisiones a través de un sistema, si las repercusiones fueran tales.

A principios de este año, la Organización para la Cooperación y el Desarrollo Económico (OCDE) presentó sus principios sobre la IA, con el objetivo de promover la innovación y la confianza. Uno de los cinco principios complementarios basados en valores, para la gestión responsable de una IA digna de confianza es que «la transparencia y divulgación responsable en torno a los sistemas de IA, son necesarias para asegurar que la gente pueda entender y cuestionar los resultados con base en la IA». [1]

La Inteligencia Artificial Explicable (XAI por sus siglas en inglés), se ha establecido recientemente en el campo del aprendizaje automático, como una forma de abordar las decisiones de «caja negra» en los sistemas de IA. Como ya se mencionó anteriormente, la mayoría de los algoritmos utilizados actualmente para el machine learning no pueden ser comprendidos por el común de las personas, en lo que se refiere a cómo y por qué se ha tomado una decisión. Por lo tanto, es difícil examinar tales decisiones en busca de errores y sesgos, especialmente en el caso de algoritmos comunes enfocados al campo del aprendizaje profundo en redes neuronales. [2]

En consecuencia, numerosos organismos reguladores, incluida la OCDE, instan a las empresas a que aumenten el uso de XAI. El Reglamento General de Protección de Datos actualmente vigente en Europa, otorgó a los ciudadanos(as) de la UE el «derecho a examen personal» de cualquier decisión algorítmica. En los Estados Unidos, las leyes de seguros obligan a las compañías a explicar sus decisiones, por ejemplo, por qué les niegan cobertura a ciertos grupos o individuos, o les cobran recargos más altos. [3]

Sin embargo, hay dos problemas principales asociados con la XAI. En primer lugar, definir correctamente el propio concepto XAI, demuestra ser un gran desafío. También es necesario determinar hasta dónde deben saber los usuarios(as) y que los mismos(as) sean conscientes de cuáles deben ser las limitaciones de sus conocimientos. Si las empresas no tuvieran más remedio que dar una explicación detallada de todo, la propiedad intelectual como propuesta de venta única (USP por sus siglas en inglés) dejaría de existir. [4]

El segundo factor problemático es evaluar el equilibrio entre el rendimiento y la explicabilidad. ¿Necesitamos estandarizar ciertas tareas y obligar a las industrias a que se empleen en la búsqueda de soluciones integradas de IA que sean transparentes, aunque esto signifique una carga muy alta para la potencialidad de esas industrias?

En JANZZ.technology hacemos todo lo posible para explicar a nuestros usuarios cómo emparejamos candidatos(as) con puestos de trabajo. Nuestro software único de matching excluye parámetros irrelevantes como género, edad o nacionalidad y sólo compara habilidades, educación/formación, especialidades, experiencia, etc. Es decir, solo utiliza aspectos que son verdaderamente importantes para encontrar al candidato(a) perfecto(a).

En lugar de proporcionar resultados basados en un único punto de coincidencia, nuestro sistema de matching desglosa y tiene en cuenta todos los criterios relevantes, tales como funciones, capacidades, idiomas, disponibilidad, etc. Esto permite a los usuarios(as) tener una mejor comprensión de los resultados y proporciona la base para evaluar la fuerza de trabajo analizada, con el fin de diseñar planes de nueva capacitación y mejora de la cualificación de la misma. ¿Le gustaría saber más acerca de cómo JANZZ.technology utiliza las soluciones de XAI? Si nos escribe a sales@janzz.technology, estaremos encantados de responderle.

[1] OECD. 2019. OECD Principles on AI. URL :https://www.oecd.org/going-digital/ai/principles/ [2019.9.17].

[2] Ron Schmelzer. 2019. Understanding Explainable AI. URL: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/#6b4882fa7c9e[2019.9.17].

[3] Jeremy Kahn. 2018. Artificial Intelligence Has Some Explaining to Do. URL: https://www.bloomberg.com/news/articles/2018-12-12/artificial-intelligence-has-some-explaining-to-do[2019.9.17].

[4] Rudina Seseri. 2018. The problem with ‘explainable AI’. URL: https://techcrunch.com/2018/06/14/the-problem-with-explainable-ai/[2019.9.17].