viernes, mayo 17, 2024
InicioInternacionalesLey que exige auditar inteligencia artificial en procesos de contratación entra en...

Ley que exige auditar inteligencia artificial en procesos de contratación entra en vigor en NYC

Múltiples compañías en la Gran Manzana utilizan herramientas tecnológicas para seleccionar personal, cuyos algoritmos pudieran afectar a mujeres y minorías, y aunque la nueva normativa busca proteger identificar potenciales sesgos y garantizar la igualdad de oportunidades para candidatos a posiciones laborales, expertos creen que no tendrá un impacto relevante

La inteligencia artificial sigue abriéndose más espacio en la ciudad de Nueva York, y desde el miércoles pasado entró en vigor una nueva ley que sigue permitiendo que los buscadores de empleo accedan a esta herramienta al momento de tomar decisiones sobre eventuales contrataciones de trabajadores, pero al mismo tiempo ahora deberán informar sobre esto a los candidatos y realizar auditorías acerca de la tecnología o el software que utilizan. La regla busca garantizar que la inteligencia artificial no esté cometiendo actos de discriminación, sexismo o perfilación que afecte a potenciales empleados de comunidades vulnerables al momento de la selección para adjudicar plazas vacantes.

Y es que en la práctica se estima que la inteligencia artificial en procesos de contratación ahorra tiempo y recursos a las empresas, pero pudiera fomentar estereotipos y afectar a mujeres y personas de minorías.
Aunque la regulación del uso de la inteligencia artificial en asuntos de contrataciones dará mayor claridad y protecciones a los solicitantes y empleados que están participando en procesos de selección de personal, según el Concejo Municipal, que la aprobó en el 2001, no todos manejan la misma lupa, y expertos consideran que en el plano real la nueva normativa no tendrá un impacto considerable.

Así lo asegura Marcelo Rodríguez, especialista en inteligencia artificial y presidente de la compañía Inqmatic de Nueva York, quien advierte que los sistemas de inteligencia artificial están elaborados con datos que generan sesgo, y aunque las auditorías exigidas lo evidencien, no todas las empresas de contratación van a acceder cambiar sus herramientas tecnológicas.

“El gran problema es que los sistemas de inteligencia artificial están basados en sistemas de lenguaje y repositorios de datos y texto y sobre esa base se crean otros programas que son como aplicaciones, como el de contratación, que ya tiene características predeterminadas y sesgadas y aunque se muestre que efectivamente hay sesgos, al ser negocios, lo que determinará todo es el costo-beneficio. Es decir que si cambiarlo les va a costar miles de dólares y no cambiarlo solo les valdría una multa de menor valor, pues las compañías no van a cambiarlo”, asegura el ingeniero ecuatoriano. “Suena chévere la ley, pero en la realidad no va a hacer cambios grandes, pues tendrían que invertir en cambiar sus entradas”.
La ley advierte que las sanciones por las primeras infracciones pudieran ser de $500 y las siguientes de hasta $1,500.

Rodríguez agrega que los programas de inteligencia artificial están elaborados a partir de elementos y conceptos anglo, que en la práctica potenciales trabajadores latinos desconocen o siguen, por lo que manifiesta que es necesario incluso trabajar en la elaboración de currículos que se adapten más a lo que la inteligencia artificial de los procesos de contratación están entrenadas a la hora de hacer sus selecciones.

“Muchos de los que nacimos afuera, al aplicar a posiciones, en primer lugar ni siquiera sabemos bien cuál es el formato que debe usarse y número dos, por cultura no estamos enseñados a vendernos bien en nuestros currículos, así que nos terminamos mostrando como menos de lo que somos a nivel profesional, entonces cuando ese currículo lo agarra una inteligencia artificial entrenada con datos y parámetros americanos, incluso muchas de ellas sin querer hacer el sesgo, van a descartar a muchos de nosotros”, agrega el ingeniero hispano.

John Hausknecht, profesor de recursos humanos de la Universidad de Cornell, en Nueva York, señala que además tomar tiempo, el riesgo en los procesos manejados por inteligencia artificial es que si no se controla, las personas a cargo muchas veces ni siquiera pueden explicar qué datos está captando el algoritmo.

“Eso es lo que estaba en gran parte detrás de esta legislación (y lo que) está diciendo es que vamos a rastrearlo, recopilar datos, analizarlo e informarlo, para que con el tiempo podamos hacer cambios en las regulaciones”, asegura el docente.

A pesar de las buenas intenciones de la nueva normativa, otro punto en la práctica es que las compañías de contratación seguirán utilizando herramientas de inteligencia artificial, así a muchos solicitantes de empleo no les agrade ese sistema de selección, pues su injerencia es limitada.

La pieza de ley recién estrenada señala que a pesar de que la divulgación de que alguien está siendo evaluado por inteligencia artificial “debe incluir instrucciones sobre cómo una persona puede solicitar un proceso de selección alternativo o una adaptación razonable si está disponible”, las firmas contratantes no tienen ninguna obligación de usar procesos diferentes.

El Departamento de Protección al Consumidor y al Trabajador de la Ciudad de Nueva York (DCWP), advirtió que las auditorías de las herramientas de inteligencia artificial de contratación “deben realizarse al menos una vez al año y como mínimo, la evaluación de un auditor independiente debe incluir cálculos de las tasas de selección o puntuación y la relación de impacto en las categorías de sexo, categorías de raza/etnicidad y categorías interseccionales”.

Asimismo, quienes consideren que tienen reclamos contra un proceso de contratación en el que se usó inteligencia artificial, podrán levantar sus quejas de discriminación ante la Comisión de Derechos Humanos de la Ciudad de Nueva York.

Alfredo Ortiz, director de la firma Job Creators Network, advirtió que la nueva norma afectará a las compañías y generará procesos basado en hallazgos falsos.

“Esta es solo otra regulación onerosa de arriba hacia abajo que amenaza con exponer a las empresas a demandas frívolas basadas en preocupaciones de racismo fabricadas”, aseguró el ejecutivo, al tiempo que advierte que las auditorías en procesos de contratación automatizados pudiera mostrar “hallazgos falsos” de discriminación.

DEJA UNA RESPUESTA

Porfavor entre su comentario
Porfavor entre su nombre aqui