La inteligencia artificial no es un buen jefe de personal

  18 Diciembre 2019    Leído: 1168
La inteligencia artificial no es un buen jefe de personal

Los softwares para la selección de empleados tienen prejuicios que son difíciles de corregir.

En la corta historia del uso de la inteligencia artificial en los procesos de selección de trabajadores hay un gran fracaso. Hace un año Amazon retiró un experimento que usaba esta tecnología por algo bastante inquietante: el software demostró tener prejuicios a la hora de seleccionar a mujeres para un puesto de trabajo.

A pesar de que el sistema en principio no tenía datos personales de los aspirantes, pudo averiguar el sexo de la persona en ciertos casos. Por ejemplo si en el currículum se indicaba que alguien había pertenecido a club femenino universitario. ¿Pero cómo pudo una inteligencia artificial llegar a tener un prejuicio de género? La clave hay que buscarla en la forma en la que el software procesó los datos.

Los datos que utilizó la inteligencia artificial de Amazon para aprender a seleccionar candidatos provenían de los procesos de contratación de años anteriores, en los que la mayoría de los trabajadores contratados fueron hombres.

La principal técnica para que una inteligencia artificial sea cada vez más inteligente es el aprendizaje profundo. Google ha logrado enormes éxitos en este campo gracias al enorme volumen de datos que procesan sus máquinas. Un ejemplo práctico muy conocido: el sistema de reconocimiento de voz del asistente de Google supera el grado de comprensión de una persona. Pero a veces el proceso de aprendizaje de las máquinas a veces conduce a fracasos.

Los datos que utilizó la inteligencia artificial de Amazon para aprender a seleccionar candidatos provenían de los procesos de contratación de años anteriores, en los que la mayoría de los trabajadores contratados fueron hombres. El sistema aprendió que las mujeres eran peores candidatas al procesar una información basada en prejuicios humanos. Aunque la empresa intentó reprogramar el software, el experimento se terminó cerrando por no lograr resultados satisfactorios.

La inteligencia de las máquinas pueden ser una valiosa herramienta para ayudar a encontrar talento. Incluso puede acabar con los prejuicios en los que incurrió el experimento de Amazon a la hora de contratar. Pero, como sucede con las personas, las máquinas deben ser correctamente educadas. Y esto no es nada sencillo.

manejan los sistemas de inteligencia artificial. Su programación debe ser muy refinada para evitar sesgos. Tengamos en cuenta que en países como Francia los currículums son anónimos para no discriminar a candidatos.

Una buena inteligencia artificial debería saber reconocer el talento sin tener en cuenta la edad de los potenciales aspirantes, si tienen alguna discapacidad, su origen étnico, su género o cualquier otro aspecto que pueda convertirse en un sesgo

Una buena inteligencia artificial debería saber reconocer el talento sin tener en cuenta la edad de los potenciales aspirantes, si tienen alguna discapacidad, su origen étnico, su género o cualquier otro aspecto que pueda convertirse en un sesgo. No basta con que la inteligencia artificial se convierta en una herramienta capaz de procesar más rápidamente información. Hay que asegurarse de que solo se evalúen la valía profesional de un aspirante.

¿Cómo es posible evitar algo así en un momento en el que voluntariamente introducimos datos que trascienden lo profesional en webs como Linkedin? Esta empresa, por cierto, proporciona con frecuencia los datos a empresas para comenzar un proceso de selección de personal, usando o no la inteligencia artificial. El propio Linkedin usa software inteligente en la herramienta que ofrece a empresas para encontrar candidatos a un puesto de trabajo.

Pero el uso de la inteligencia artificial en los procesos de contratación no se circunscribe solo al Big Data. Se emplea incluso para hacer entrevistas de trabajo mediante videoconferencia. Pensemos en las famosas escenas de los test de Blade Runner para saber si un individuo era un humano o un replicante.

Algunas empresas han llegado tan lejos en el uso de la inteligencia artificial que han superado lo que vimos en la película de Ridley Scott. Pues se está prescindiendo incluso de entrevistadores para analizar si alguien es un buen o un mal candidato a un trabajo.

Para ello se emplean herramientas como las de HireVue, una empresa especializada en entrevistas de trabajo mediante videoconferencia que usa patrones de inteligencia artificial. Sus herramientas permiten analizar cosas como rasgos de la comunicación no verbal en el aspirante.

HireVue hace hincapié en que su software está libre de los prejuicios. Para ello usan los servicios de psicólogos que depuran los posibles sesgos en los que pueden incurrir los algoritmos. Por otra parte esta compañía defiende que no emplea técnicas de reconocimiento facial, pues en principio el sistema sólo analiza los gestos de la persona.

Pero ese método según algunos expertos en inteligencia artificial no tiene demasiadas garantías científicas. Un grupo de derechos civiles, The Electronic Privacy Information Center (EPIC), presentó una queja sobre las prácticas de HireVue ante la Comisión Federal de Comercio del Gobierno de Estados Unidos.

EPIC denunciaba que HireVue no informa sobre cómo realiza sus procesos de selección ni se sabe cómo se comportan sus algoritmos, por lo que se podría estar cometiendo sesgos a la hora de proceder a la selección sin que lo sepan las empresas que contratan sus servicios ni los aspirantes a los puestos de trabajo.

Además, EPIC cuestiona que HireVue recabe datos personales al analizar las expresiones de las personas. Pues el sistema podría estar almacenando datos sobre cosas como el origen étnico o el sexo en función de ciertos patrones analizados en los vídeos.

No hay que ser demasiado perspicaz para entender que la denuncia de EPIC apunta a un asunto controvertido de la inteligencia artificial. En algunos casos los servicios que se publicitan como supuestamente inteligentes quizá no lo son tanto. Es algo similar a lo que sucede cuando usamos el enfoque automático de una cámara. ¿De verdad la cámara es tan lista para saber lo que queremos enfocar o sencillamente queremos creer que lo es?

En el caso particular de la contratación laboral los errores de la inteligencia artificial pueden provocar una discriminación masiva. Sobre todo porque no conocemos con exactitud cómo funcionan estos sistemas. El enorme crecimiento que están experimentando estas herramientas parece evidente que debería ser regulado.

lavangaurdia


Etiquetas: inteligenciaartificial   jefe  


Noticias