Caso amazon y su iniciativa de encargar a la IA (inteligencia artificial) el reclutamiento y selección de sus colaboradores.
Nota periodística Amazon.. Caso Recursos Humanos
Cuéntame acerca de cómo Amazon comenzó a usar la IA para su proceso de reclutamiento y selección de personal y cual fue la causa para dejarla de utilizar?
El caso de Amazon y su herramienta de reclutamiento con IA es uno de los ejemplos más famosos en el mundo de la tecnología sobre los **sesgos algorítmicos**. Lo que comenzó como un proyecto ambicioso para automatizar la búsqueda de talento terminó convirtiéndose en una lección sobre los peligros de confiar ciegamente en los datos históricos.
Aquí te detallo la cronología y las razones de su cancelación:
El Origen: La búsqueda del “Santo Grial” (2014)
En 2014, un equipo de ingenieros en el centro de desarrollo de Amazon en Edimburgo comenzó a trabajar en una herramienta de **aprendizaje automático** (Machine Learning). Su objetivo era ambicioso: querían un sistema al que pudieras darle 100 currículums y que seleccionara automáticamente a los 5 mejores para contratarlos.
* **Funcionamiento:** El sistema analizaba los currículums y calificaba a los candidatos con una puntuación de **1 a 5 estrellas**, de forma similar a como se califican los productos en su tienda online.
* **Entrenamiento:** Para “enseñarle” a la IA qué era un buen empleado, la alimentaron con los currículums recibidos por la empresa durante un periodo de **10 años**.
El Problema: El “Sesgo de Género”
Apenas un año después de iniciar las pruebas, en 2015, los ingenieros notaron algo alarmante: **el algoritmo no era neutral**. Estaba discriminando sistemáticamente a las mujeres para puestos técnicos (como ingenieros de software o desarrolladores).
¿Por qué ocurrió esto?
El problema no fue el código en sí, sino los **datos de entrenamiento**:
1. **Dominio masculino histórico:** Como la industria tecnológica ha estado dominada históricamente por hombres, la mayoría de los currículums exitosos de los últimos 10 años en la base de datos de Amazon pertenecían a varones.
2. **Aprendizaje erróneo:** La IA interpretó que el hecho de ser hombre era un factor de éxito. Por lo tanto, aprendió a penalizar currículums que incluyeran la palabra **”mujeres”** (por ejemplo, “capitana del club de ajedrez de mujeres”) o que mencionaran universidades exclusivamente femeninas.
3. **Lenguaje “masculino”:** El sistema también favorecía verbos de acción y términos que aparecían con más frecuencia en los currículums de hombres.
¿Por qué dejaron de utilizarla?
Aunque Amazon intentó corregir el algoritmo para que fuera neutral a términos específicos, el proyecto fue finalmente **cancelado en 2017** (y hecho público en 2018) por las siguientes razones:
* **Imposibilidad de garantizar la neutralidad:** Los ingenieros se dieron cuenta de que la IA encontraba “formas sutiles” de identificar el género u otros rasgos protegidos, incluso si se eliminaban palabras clave. No podían asegurar que el sesgo no se manifestara de otra manera.
* **Resultados inconsistentes:** La herramienta a menudo recomendaba candidatos mediocres para puestos importantes basándose en patrones irrelevantes detectados en los datos.
* **Riesgo reputacional y legal:** El uso de una herramienta que discrimina activamente por género representaba un riesgo enorme para la imagen de la empresa y posibles demandas legales.
- **Nota importante:** Amazon aclaró en su momento que, aunque los reclutadores miraban las recomendaciones de la herramienta, nunca se utilizó de forma exclusiva ni final para tomar decisiones de contratación.
Lección aprendida.
Este caso demostró que **la IA es un espejo de la sociedad**. Si los datos históricos contienen prejuicios humanos, la IA no solo los copiará, sino que los amplificará.
Este video explica de manera concisa cómo el algoritmo de Amazon aprendió de datos históricos sesgados y por qué la empresa decidió finalmente retirar el sistema de su proceso de selección.
¿Será que la IA sea tan eficiente y certera al momento de proceso de selección de candidatos?
Hay un termino que en la jerga de recursos humanos en ocasiones se utiliza «Feelin» que describe ese ojo subjetivo que se va desarrollando con el tiempo y se va nutriendo con la experiencia durante cada una de las etapas del reclutamiento y selección con candidatos, que arroja resultados adecuados, con el personal que cubre independientemente de su genero, apoyado en su experiencia previa en el puesto desempeñado, competencias, expresiones no verbales, habilidades etc. Eso ningún algoritmo o patrón conductual artificial lo podrá reemplazar. Es empatía y contacto humano y más si te dedicas a este sector debe haber congruencia entre lo que haces y la manera como lo realizas.