La Inteligencia Artificial analiza las emociones de los futuros empleados

22/03/2018 | Patricia Nilsson (Financial Times)

La tecnología de reconocimiento facial nos permite pagar la comida, desbloquear un teléfono e incluso puede hacer que nos arresten. Actualmente, esa tecnología está avanzando hacia una nueva dirección: los algoritmos no sólo están aprendiendo a reconocer quiénes somos, sino también lo que sentimos.

La llamada tecnología de reconocimiento de emociones está en sus comienzos. Pero las compañías de inteligencia artificial (IA) afirman que la tecnología tiene el poder de transformar la selección de personal.

Sus algoritmos, según dicen, pueden descifrar cuánto de entusiasta, honesto o dinámico puede ser un candidato, y ayudar a los empleadores a descartar candidatos con características indeseables. Los empleadores, incluyendo a Unilever, ya están comenzando a utilizar la tecnología.

Human es una compañía “startup” con sede en Londres, fundada en 2018, que analiza aplicaciones de trabajo basadas en vídeo. La compañía afirma que puede detectar las expresiones emocionales de posibles candidatos y relacionarlas con rasgos de personalidad. Sus algoritmos recopilan la información al descifrar expresiones faciales subliminales cuando el solicitante responde preguntas.

Human le envía al reclutador un informe que detalla las reacciones emocionales de los candidatos a cada pregunta de la entrevista, con puntuaciones en relación con las características que especifican lo “honesto” o “apasionado” que es un candidato.

“Si el reclutador dice: Estamos buscando al candidato más curioso, pueden encontrar a esa persona comparando las puntuaciones de los candidatos”, declaró Yi Xu, la fundadora y directora ejecutiva de Human.

Los reclutadores aún pueden evaluar a los candidatos durante una entrevista de la manera convencional, pero existe un límite en cuanto a la cantidad de candidatos con la que pueden reunirse o en cuanto a la cantidad de aplicaciones en vídeo que pueden ver. La Sra. Xu ha comentado que la tecnología de reconocimiento de emociones de su empresa ayuda a los empleadores a sondear un grupo más amplio de candidatos y a preseleccionar a personas que tal vez no hubieran considerado.

“Un entrevistador tendrá prejuicios, pero con la tecnología no juzgan la cara sino la personalidad del solicitante”, comentó ella. Uno de los objetivos, afirmó, es superar la discriminación étnica y de género en la contratación.

Frederike Kaltheuner, asesora de políticas sobre innovación de datos en Privacy International, una organización global de campañas, está de acuerdo en que los entrevistadores humanos pueden ser parciales. Pero ella ha dicho que: “Los nuevos sistemas conllevan nuevos problemas”.

El mayor problema es el relacionado con la privacidad y lo que ocurre con los datos una vez que se analizan. Ailidh Callander, una jurista de Privacy International, dijo que no está claro si los datos utilizados para entrenar a los algoritmos de reconocimiento de emociones — como los obtenidos durante las entrevistas de trabajo basadas en vídeo — cuentan como “personales” y si se aplica la legislación de privacidad de datos.

En la década de 1970, los psicólogos estadounidenses Paul Ekman y Wallace V. Friesen desarrollaron una taxonomía de las emociones humanas llamada Sistema de Codificación de Acción Facial (FACS, por sus siglas en inglés). Usando el sistema, un especialista en el FACS puede detectar si una sonrisa es sincera o no simplemente analizando una fotografía. A la inteligencia emocional artificial se le enseña a interpretar expresiones faciales de forma similar.

El Sr. Ekman, quien actualmente dirige el Paul Ekman Group, una empresa que capacita a especialistas en reconocimiento de emociones, declaró que el logro de una inteligencia emocional artificial confiable basada en sus métodos es posible. Pero él agregó: “Nadie ha publicado investigaciones que demuestren que los sistemas automatizados son precisos”.

El Sr. Ekman declaró que incluso si la inteligencia emocional artificial fuera posible, las personas que interpretan los datos, en este caso los empleadores, también deberían recibir formación para descifrar correctamente los resultados. “El FACS puede decirte que alguien está apretando sus labios, pero esto puede significar diferentes cosas según la cultura o el contexto”, comentó.

Las personas difieren en su capacidad para manipular sus emociones con el fin de “engañar” al sistema, y el Sr. Ekman apuntó: “Si las personas saben que las están observando, cambian su comportamiento”. Aquellos a quienes se les dice que sus emociones serán analizadas se cohíben.

Según HireVue, Unilever se ha ahorrado 50.000 horas de trabajo durante 18 meses desde que puso gran parte de su proceso de contratación online y comenzó a usar la plataforma de entrevistas basada en vídeos. HireVue integró la tecnología de reconocimiento de emociones a su servicio hace aproximadamente dos años y le vendió su servicio a Unilever. Unilever no ha respondido a ninguna pregunta.

“Los reclutadores tienen la oportunidad de dedicar su tiempo a las mejores personas en lugar de a quienes lograron pasar por la revisión del currículum”, comentó Loren Larsen, el director de tecnología de HireVue, con sede en Salt Lake City. “Tú no eliminas a la persona adecuada porque fue a la escuela equivocada”.

Human primero entrenó sus algoritmos con imágenes y vídeos disponibles públicamente antes de pasar a lo que la Sra. Xu llama sus “datos protegidos”, los vídeos que sus clientes le envían. HireVue no ha desarrollado algoritmos de inteligencia artificial, pero aprovecha la base de datos de emociones de Affectiva, una empresa líder en reconocimiento de emociones que trabaja en investigación de mercado y en publicidad.

Gabi Zijderveld, la directora de marketing de Affectiva, ha opinado que los empleadores pudieran usar la inteligencia emocional artificial de varias maneras. Un ejemplo es la formación para los empleados que quieren dar mejores presentaciones o presentar mejores argumentos de venta. Otro pudiera ser rastrear el bienestar de los trabajadores para detectar el agotamiento o la depresión, algo que la Sra. Zijderveld considera un caso de uso válido para la tecnología de la compañía. Pero “el rastreo del estado de ánimo es alarmante”, ella agregó.

Todas estas compañías de IA han dicho que depende de los empleadores ser transparentes acerca de cómo usan su tecnología y los datos que recopilan. Pero ninguna verifica si lo son. “Esa decisión no depende de nosotros”, expuso la Sra. Zijderveld. “Nosotros creamos la tecnología”.

La Sra. Xu dijo: “Tú no piensas cómo va la gente a hacer mal uso de mi producto“, comentó ella, “pero no somos lo suficientemente ingenuos como para pensar que esta tecnología sólo puede hacer el bien”.

How AI helps recruiters track jobseekers’ emotions

22/03/2018 | Patricia Nilsson (Financial Times)

Facial recognition technology allows us to pay for lunch, unlock a phone — it can even get us arrested. Now, that technology is moving on: algorithms are not only learning to recognise who we are, but also what we feel.

So-called emotion recognition technology is in its infancy. But artificial intelligence companies claim it has the power to transform recruitment.

Their algorithms, they say, can decipher how enthusiastic, bored or honest a job applicant may be — and help employers weed out candidates with undesirable characteristics. Employers, including Unilever, are already beginning to use the technology. London-based Human, founded in 2018, is a start-up that analyses video-based job applications. The company claims it can spot the emotional expressions of prospective candidates and match them with personality traits — information its algorithms collect by deciphering subliminal facial expressions when the applicant answers questions.

Human sends a report to the recruiter detailing candidates’ emotional reactions to each interview question, with scores against characteristics that specify how “honest” or “passionate” an applicant is.

“If (the recruiter) says, ‘We are looking for the most curious candidate,’ they can find that person by comparing the candidates’ scores,” says Yi Xu, Human’s founder and chief executive.

Recruiters can still assess candidates at interview in the conventional way, but there is a limit to how many they can meet or the number of video applications they can watch. Ms Xu says her company’s emotion recognition technology helps employers screen a larger pool of candidates and shortlist people they may not have considered otherwise.

“An interviewer will have bias, but (with technology)] they don’t judge the face but the personality of the applicant,” she says. One aim, she claims, is to overcome ethnic and gender discrimination in recruitment.

Frederike Kaltheuner, policy adviser on data innovation at Privacy International, a global campaigning organisation, agrees that human interviewers can be biased. But she says: “new systems bring new problems”.

The biggest problem is privacy, and what happens to the data after it is analysed. Ailidh Callander, a legal officer at Privacy International, says it is unclear whether data used to train emotion recognition algorithms — such as that collected during video-based job interviews — count as “personal”, and whether data privacy legislation applies.

In Europe, data processing by AI companies may not be covered under GDPR— the EU-wide legislation to protect data privacy that comes into force in May.

Paul Ekman, who developed Facs (see box above) and now runs the Paul Ekman Group, which trains emotion recognition specialists, says reliable artificial emotional intelligence based on his methods is possible.

But he adds: “No one has ever published research that shows automated systems are accurate.”

Mr Ekman says even if artificial emotional intelligence were possible, the people interpreting the data — in this case employers — should also be trained to properly decipher the results. “Facs can tell you someone is pressing their lips together, but this can mean different things depending on culture or context,” he says.

People differ in their ability to manipulate their emotions to trick the system, and Mr Ekman says: “If people know they are being observed they change their behaviour.” Those who are told their emotions will be analysed are self-conscious.

Unilever has saved 50,000 hours of work over 18 months when it brought much of its recruitment process online and started using the video-based interviewing platform, according to HireVue. The company integrated emotion recognition technology into its service about two years ago and sold its service to Unilever. Unilever did not respond to questions.

“(Recruiters) get to spend time with the best people instead of those who got through the resume screening,” says Loren Larsen, chief technology officer of HireVue, based in Salt Lake City. “You don’t knock out the right person because they went to the wrong school.”

Human first trained its algorithms on publicly available images and videos before turning to what Ms Xu calls their “proprietary data” — the videos their clients send them. HireVue has not developed AI algorithms but taps into the emotion database of Affectiva, a leading company in emotion recognition that works in market research and advertising.

Gabi Zijderveld, chief marketing officer at Affectiva, says employers could use artificial emotional intelligence in several ways. One example is coaching for employees hoping to deliver better presentations or sales pitches. Another could be tracking the wellbeing of workers to detect burnout or depression, something Ms Zijderveld considers a valid use case for the company’s technology. But “mood tracking is scary”, she adds.

These AI companies all say it is up to employers to be transparent about how they use their technology, and the data they gather. But none checks whether they are. “That decision is not up to us, Ms Zijderveld says, “we create the technology”.

Ms Xu says: “You don’t think ‘how are people going to misuse my product’,” she says “but we are not naive enough to think (this technology) can only do good.”

¿Te ha resultado interesante? ¡Compártelo!