A principios de este año, Carly Holm, CEO de la consultora de RR.HH. Humani, recibió una presentación de un cliente de Nueva York, Estados Unidos. Un empleado había iniciado una demanda por acoso laboral contra otro, y la situación se estaba agravando rápidamente. Pero cuando Holm
pidió al cliente una copia de su manual del empleado, como parte de una comprobación rutinaria de cumplimiento, tropezaron. "Dijeron un poco avergonzados:
'Okay, acá está, lo escribió ChatGPT'", explicó Holm a Forbes. Para Holm, que revisó las políticas escritas por Inteligencia Artificial (IA) para docenas de sus clientes, la revelación no fue una sorpresa. Pero en este caso, había un problema importante:
el manual generado por la IA no tenía ninguna política contra el acoso.
"Si el lugar de trabajo no cuenta con políticas adecuadas, como una política de tolerancia cero para el acoso sexual, la violencia en el lugar de trabajo, etc.; la investigación se fijará entonces en el empleador, y habrá consecuencias", dijo. "Así que se dieron cuenta: 'Wow,
deberíamos haber contratado a profesionales para redactar estas políticas de la forma adecuada'".
Las empresas recurren cada vez más a la IA, para generar documentos laborales importantes. Con frecuencia legalmente vinculantes, desde manuales de empresa y políticas del lugar de trabajo, hasta contratos como cartas de oferta y acuerdos de separación; según las entrevistas con cuatro proveedores de servicios de RRHH y nóminas. Y en varios casos, estos documentos, hilados con herramientas de IA como ChatGPT, pasan por alto cláusulas clave y cuestiones cruciales; que ponen a los empleadores en grave riesgo legal y financiero. Según explicaron a Forbes consultores de RR.HH., que trabajaron directamente con estas empresas.
Mientras que algunas empresas contratan a expertos en RRHH, para que revisen sus políticas generadas por IA antes de publicarlas; otras buscan ayuda profesional, después de que suban los problemas. Por ejemplo, una empresa con sede en California y 200 empleados utilizó la IA para generar su manual de empresa; según explicó a Forbes Daniel Grace, director del proveedor global de servicios de RRHH Iris Software Group. Pero después de distribuirlo por toda la empresa, los directivos descubrieron que no incluía una política de horas extraordinarias, un requisito legal en el estado. Cuando los empleados trabajaron varias horas extraordinarias, la empresa se encontró con una factura salarial masiva e inesperada.
Otro ejemplo: en Reino Unido, un equipo de RR.HH. utilizó el copiloto de IA de Microsoft Bing para elaborar un acuerdo de despido, explicó Grace. El documento jurídicamente vinculante, que omitía información esencial, se envió entonces al asesor jurídico del empleado. "Su abogado esencialmente lo tiró por la ventana, y dijo que esto no servía para nada. Realmente empañó su propia negociación, y acabaron teniendo que pagar una cantidad de liquidación mayor", dijo Grace.
Los manuales y las políticas del lugar de trabajo suelen tener cientos de páginas. Cada uno de estos documentos exhaustivos se adapta para reflejar la cultura de la empresa, e incorporar las leyes locales que se aplican de forma exclusiva a los empleados de las empresas. Pero
aunque las herramientas de IA pueden ayudar a elaborar un primer borrador de estos documentos en cuestión de segundos.
Sus conjuntos de datos de formación subyacentes, están a menudo desfasados en lo que se refiere a las leyes laborales en constante evolución; dijo Ben Houghton, vicepresidente de ingeniería de Iris.
Además, hay una serie de problemas de privacidad. Si se introducen datos confidenciales de la empresa en la versión gratuita de ChatGPT y similares, podrían utilizarse para entrenar modelos de IA o filtrarse al público. Paul Cortissoz, CEO de HRSoul, una consultora de recursos humanos con sede en Florida, dijo a Forbes que
apoyarse demasiado en la IA para estas políticas, puede tener efectos dominó desordenados.
Contó a Forbes el caso de una empresa remota de SaaS, que le contrató después de que un empleado hubiera presentado una queja interna. El manual de la empresa, conjurado con la ayuda de ChatGPT, asignaba cinco días de permiso retribuido en virtud de su política de duelo. Pero en el estado en el que vivía la empleada, los trabajadores tenían derecho a hasta 10 días de permiso retribuido. "Ese fue en cierto modo, el punto doloroso para que dijeran:
'¿Saben qué?, tal vez necesitemos traer a alguien que realmente sepa lo que está haciendo'", dijo Cortissoz. Añadiendo que desde entonces se le pidió a su empresa, que rehaga varios manuales de empleados generados por IA.
Aunque la IA se está aplicando a una serie de tareas de RR.HH. -redactar descripciones de puestos de trabajo, encontrar talentos, seleccionar y entrevistar a candidatos, asignar primas-.
Aún no está lo suficientemente afinada, como para generar políticas empresariales precisas, lo que expone a las empresas que las utilizan, a enfrentarse a graves secuelas legales y financieras.
"Seamos realistas, la gente está utilizando herramientas de inteligencia artificial para acelerar las cosas... y realmente no deberían... Estas cosas tienen problemas iniciales", dijo Grace. “Están generando estos documentos. Nadie los está corrigiendo, los están publicando y eso está causando más problemas de los que habría causado, si se hubieran tomado el tiempo de hacer el manual con éxito en primer lugar”.
.
Actualidad Laboral / Con información de Forbes Argentina