Estando aún lejos de que sea un robot quien nos entreviste, el uso de la Inteligencia Artificial en los procesos de selección de personal, está planteando ya riesgos y oportunidades.
Esta semana he asistido a la charla de Karma Peiro “Preguntes freqüents per a una Intel- ligència Artificial ética” a l’Ateneu Barcelonès, donde además de constatar el excelente trabajo de Karma, puede apreciar en directo el interés que suscitan los aspectos prácticos de la Inteligencia artificial.
El informe “Intel·ligencia Artificial – Decisions automatitzades a Catalunya”, deja constancia de la importancia que están adquiriendo los algoritmos de decisión automatizada y como se están incorporando en nuestra cotidianidad.
Una de las áreas donde ya se están desplegando, y donde se les augura un brillante futuro es en el ámbito de los Recursos Humanos y la selección de personal. El informe presenta ejemplos, como el de la agencia de recolocación de trabajo finlandesa, que para “…ahorrar tiempo a la hora de seleccionar…. no hace entrevistas personalizadas: pide la contraseña de correo electrónico (y perfiles en las redes sociales) del aspirante, y un algoritmo de decisión automatizada escudriña la información… además de decidir si se merece el puesto de trabajo”.
El tema tampoco es nuevo, Francesco Rodella publicaba, en 2018, un artículo en Xataka Ya hay algoritmos ayudando a seleccionar personal: la búsqueda de trabajo en la era del algoritmo analizando el tema el tema en profundidad.
Salí de la charla, pensando que quizá nos falta conciencia tanto de las posibilidades que se nos ofrecen como de las oportunidades que nos podemos perder.
El desplegar nuevas tecnologías, si además presentan características disruptivas, supone una oportunidad de oro para afrontar problemáticas complejas y nos brinda la posibilidad a costes mínimos, de obtener resultados que con los medios actuales son implanteables.
En este contexto, leía hace unos días un Tuit, de Carlos Fenollosa contando su “pequeño aprendizaje de pequeña startup” realizando una selección de personal. Un tuit, que merece la pena leer, donde nos cuenta las reacciones de los candidatos a su decisión de dar feedback personalizado a los mismos con las razones por las que no han sido seleccionados.
(Quien no use Twitter, puede acceder a una copia del mismo en este enlace)
Tras leerlo, se me ocurría que un algoritmo, programado para facilitar la selección de personal, no podría por menos que, además de notificar a RRHH los candidatos que pre-encajan (o encajan del todo) en los procesos de selección, aprovechar para notificar a los candidatos que no encajan, los posibles puntos a mejorar que facilitarían sus opciones en otros procesos de selección.
Sería una manera de implementar transparencia, dando visibilidad a las decisiones tomadas y generando confianza en los criterios aplicados, y además en este caso, de suponer un beneficio para el conjunto de la sociedad facilitando orientación a los candidatos descartados. Un concepto extensible a otros ámbitos.
Sí, es cierto que tenemos derecho por Ley a ciertas informaciones, como por ejemplo a porqué se nos ha rechazado un crédito, pero quizá vale la pena anticiparnos, mirando más allá de la Ley.
Como dice Yuval Harari en su libro “21 lecciones para el siglo XXI” “Hay algo hondamente preocupante y peligroso en las personas que evitan matar solo porque «Dios así lo dice»” .
“El problema real de los robots no es su propia inteligencia artificial, sino más bien la estupidez y crueldad naturales de sus dueños humanos. Hemos visto demasiadas películas de ciencia ficción sobre robots que se rebelan contra sus amos humanos […] Pero el problema real con los robots es justo lo contrario. Debemos temerles porque probablemente obedecerán siempre a sus dueños y nunca se rebelarán. “