El Manifiesto de Inteligencia Artificial Justa en el Reclutamiento
Manifiesto de Inteligencia Artificial Justa en el Reclutamiento
En resumen
Los reclutadores y las plataformas de trabajo flexible están adaptando la inteligencia artificial para clasificar a los candidatos y asignar trabajo. Sin control, la inteligencia artificial discriminará sistemáticamente, omitirá y borrará a miles de millones de personas. Para evitarlo, las empresas y sus proveedores tecnológicos deben: 1) divulgar el uso de la IA, 2) hacer transparentes los factores, 3) revelar las clasificaciones a los candidatos, 4) detectar el sesgo y 5) reducir sistemáticamente la discriminación.

En detalle
La inteligencia artificial se está convirtiendo en una fuerza dominante en el reclutamiento. La IA no solo compara candidatos y oportunidades laborales, sino que también vincula candidatos y equipos. En las plataformas de trabajo flexible, la IA ya está decidiendo quién consigue el trabajo. Principalmente debido al condicionamiento sociocultural, los humanos son propensos a tener prejuicios conscientes o inconscientes. El sesgo inconsciente también afecta a los arquitectos de la IA. Los contextos individuales y la crianza de los arquitectos moldean su comprensión de conceptos como la justicia y la igualdad. A su vez, esto afecta las abstracciones y modelos algorítmicos que utilizan para representar el mundo. En su mayoría, las personas que solicitan un trabajo no son contratadas. Además, la mayoría de los candidatos nunca descubren por qué no fueron "lo suficientemente buenos". Para ellos, el proceso de reclutamiento y toma de decisiones es una caja negra impenetrable. Sin control, la inteligencia artificial añade más complejidad a esa impenetrabilidad. La discriminación y la desigualdad se están automatizando. Los arquitectos de algoritmos están empezando a esconderse tras puertas cerradas. La injusticia a favor de unos pocos prevalecerá aún más. Es una pendiente peligrosa y resbaladiza. Afortunadamente, también podemos utilizar la tecnología para reducir el sesgo. Podemos utilizar el diseño conductual y la transparencia para promover la igualdad (así es como el Reino Unido utilizó estas herramientas para aumentar la participación de mujeres en las juntas directivas del 12% al 25% en solo cuatro años). Podemos abrir la caja negra del reclutamiento: enseñar a los candidatos cómo se toman las decisiones, detectar y reducir la discriminación, proporcionar consejos automatizados y basados en datos a gran escala sobre empleos, educar a los líderes sobre los peligros de la discriminación descontrolada de la IA y mucho más. Hacerlo no será fácil, pero el primer paso es comprometerse con ello. Los principios por sí solos no pueden garantizar una IA ética. Se necesitan caminos claramente definidos y con impacto. De manera similar, la ética de la IA debe ser respaldada no solo por individuos, sino también por empresas y organizaciones. En Torre, respaldamos el siguiente manifiesto. Si eres un reclutador, ejecutivo de empresa, administrador de una plataforma de trabajo flexible, líder de una empresa de tecnología de recursos humanos o bolsa de trabajo, o un legislador, te invitamos a apoyarlo también.
Manifiesto
Uso de la IA debe ser divulgado
Cuando se usan algoritmos informáticos para filtrar y clasificar candidatos, los reclutadores y sus proveedores tecnológicos deben informar adecuadamente a los candidatos.
Los principios y factores deben ser transparentes
Al evaluar o considerar una oportunidad laboral, los candidatos deben tener derecho a saber qué factores utiliza la IA para filtrar y clasificar candidatos. Estos factores deben incluir listas y definiciones de principios.
La clasificación debe ser divulgada
Los candidatos tienen derecho a saber cómo se clasifican en comparación con otros candidatos, así como los criterios de clasificación para cada factor.
El sesgo debe ser reportado
Cuando se usan algoritmos informáticos para filtrar y clasificar candidatos, los reclutadores y sus proveedores tecnológicos deben informar adecuadamente a los candidatos.
El sesgo debe reducirse de manera proactiva
Cuando se identifica que el sesgo es discriminatorio†, se deben redactar modelos de compensación activos en los algoritmos para eliminar la desigualdad de manera continua.
Con suerte, en un futuro previsible, todos serán tratados de manera igualitaria y tendrán igualdad de oportunidades. ¡Que esto nos dé la oportunidad de mirar atrás y reconocer cuán necios fuimos alguna vez!
Declaramos aquí sin reservas que seremos instrumentales para lograr ese cambio.
Alex signature
Alexander Torrenegra CEO y fundador de Torre

† La discriminación ocurre en muchos niveles y en diferentes categorías. Este manifiesto no tiene la intención de determinar qué se debe considerar discriminatorio. Esto se debe a que diferentes grupos y naciones tienen diferentes estándares. En cambio, este manifiesto tiene la intención de ayudar a exponer todos los prejuicios, independientemente de la categoría a la que pertenezcan, y luego permitir que las sociedades decidan si dichos sesgos deben ser abordados.