Ilustración de Adriana Heldiz, CalMatters; iStock

Los reguladores de California están avanzando para restringir cómo los empleadores pueden utilizar la inteligencia artificial para examinar a los trabajadores y solicitantes de empleo, advirtiendo que utilizar la IA para medir el tono de voz, las expresiones faciales y los tiempos de reacción puede violar la ley.

Las regulaciones preliminares dicen que si las compañías utilizan sistemas automatizados para limitar o priorizar a los solicitantes en base a embarazo, origen nacional, religión o historial criminal, eso es discriminación.

Los miembros del público tienen hasta el 18 de julio para comentar sobre las reglas propuestas. Después de eso, los reguladores del Departamento de Derechos Civiles de California pueden enmendarlas y, eventualmente, aprobarlas, sujetas a una revisión final por un juez de derecho administrativo, culminando un proceso que comenzó hace tres años.

Las reglas rigen los llamados “sistemas automatizados de decisión” - inteligencia artificial y otros procesos computarizados, incluidos cuestionarios, juegos, cribado de currículums e incluso colocación de publicidad. Las regulaciones indican que el uso de estos sistemas para analizar características físicas o tiempos de reacción puede constituir discriminación ilegal. Según las nuevas reglas, los sistemas no pueden utilizarse en absoluto si tienen un “impacto adverso” en los candidatos basado en ciertas características protegidas.

Las reglas preliminares también requieren que las compañías que venden servicios predictivos a los empleadores mantengan registros durante cuatro años para responder a reclamos de discriminación.

Se necesita una acción en parte porque si bien las empresas desean automatizar partes del proceso de contratación, “esta nueva tecnología puede oscurecer la responsabilidad y hacer que sea más difícil discernir quién es responsable cuando una persona se ve sometida a decisiones discriminatorias”, dijo Ken Wang, un asociado de políticas de la Asociación de Abogados de Empleo de California.

Las regulaciones preliminares dejan claro que los proveedores de servicios de terceros son agentes del empleador y hacen que los empleadores sean responsables.

El Departamento de Derechos Civiles de California comenzó a explorar cómo los algoritmos, un tipo de sistema automatizado de decisión, pueden impactar las oportunidades laborales y automatizar la discriminación en el lugar de trabajo en abril de 2021. En ese momento, Lydia X. Z. Brown, fundadora del Fondo de Personas Autistas de Color, advirtió a la agencia sobre el daño que los algoritmos de contratación pueden infligir a las personas con discapacidades. Brown le dijo a CalMatters que si las nuevas reglas ofrecerán protección significativa depende de cómo se implementen y hagan cumplir.

Los investigadores, defensores y periodistas han acumulado una serie de pruebas de que los modelos de inteligencia artificial pueden automatizar la discriminación, incluso en el lugar de trabajo. El mes pasado, la American Civil Liberties Union presentó una queja ante la Comisión Federal de Comercio alegando que el software de cribado de currículums fabricado por la empresa Aon discrimina a las personas basándose en raza y discapacidad a pesar del reclamo de la empresa de que su IA es “libre de prejuicios.” Una evaluación de la tecnología GPT-3.5 de la firma líder en inteligencia artificial OpenAI encontró que el gran modelo de lenguaje puede mostrar sesgo racial cuando se utiliza para clasificar automáticamente los currículums de los solicitantes de empleo. Aunque la empresa utiliza filtros para evitar que el modelo de lenguaje produzca un lenguaje tóxico, pruebas internas de GPT-3 también revelaron sesgos raciales, de género y religiosos.

“Esta nueva tecnología puede confundir la responsabilidad.”
— Ken Wang, asociado de políticas con la Asociación de Abogados Laborales de California

Proteger a las personas del sesgo automatizado atrae comprensiblemente mucha atención, pero a veces el software de contratación que se comercializa como inteligente toma decisiones estúpidas. Según un informe de investigación de la emisora de televisión pública alemana Bayerischer Rundfunk, llevar gafas o un pañuelo en la cabeza o tener una estantería en el fondo de una entrevista de trabajo en vídeo puede distorsionar las predicciones de personalidad. Lo mismo puede hacer el tipo de letra que el solicitante de empleo elige al enviar un currículum, según investigadores de la Universidad de Nueva York.

Las regulaciones propuestas por California son las últimas de una serie de iniciativas dirigidas a proteger a los trabajadores contra empresas que utilizan formas dañinas de IA.

En el 2021, los legisladores de la ciudad de Nueva York aprobaron una ley para proteger a los solicitantes de empleo contra la discriminación algorítmica en la contratación, aunque investigadores de la Universidad de Cornell y Consumer Reports concluyeron recientemente que la ley ha sido ineficaz. Y en el 2022, la Comisión de Igualdad de Oportunidades en el Empleo y el Departamento de Justicia de los EE. UU. aclararon que los empleadores deben cumplir con la Ley de Estadounidenses con Discapacidades al utilizar la automatización durante la contratación.

Mientras tanto, la Agencia de Protección de la Privacidad de California está considerando reglas en borrador que, entre otras cosas, definen qué información pueden recopilar los empleadores sobre contratistas, solicitantes de empleo y trabajadores, lo que les permitiría ver qué datos recopilan los empleadores y optar por no participar en dicha recopilación o solicitar una revisión humana.

Una legislación pendiente empoderaría aún más a la fuente de las revisiones en borrador, el Departamento de Derechos Civiles de California. La Propuesta de Ley 2930 permitiría al departamento exigir evaluaciones de impacto de las empresas y agencias estatales que utilizan IA con el fin de proteger contra la discriminación automatizada.

Fuera del gobierno, los líderes sindicales argumentan cada vez más que los trabajadores de base deberían poder opinar sobre la eficacia y los daños de la IA para proteger al público. Los representantes laborales han mantenido conversaciones con funcionarios de California sobre proyectos específicos a medida que experimentan con cómo utilizar la IA.

###

CalMatters.org es una empresa de medios sin fines de lucro, no partidista que explica políticas y política en California.