Hablamos con el doctor Andrés Arenas, investigador experto en inteligencia artificial (IA) y relaciones laborales. El objetivo de la entrevista a este embajador de IA+Igual es doble: trazar un perfil actual de la implantación de la inteligencia artificial en el área de RR. HH. y acercarnos al futuro que nos espera. Imposible no alucinar ante el panorama que muestra sobre los modelos de IA y cómo se usan.
El Proyecto IA+Igual arrancó con una encuesta entre directivos de Recursos Humanos para conocer el estado de la IA en este área: 6 de cada 10 profesionales manifestó a principios de 2024 desconocer el impacto de posibles sesgos en los modelos de la IA.

ORH.- Desde un punto de vista práctico, ¿Cómo están actuando en la actualidad las empresas respecto a los sesgos en el uso de la IA?
Andrés Arenas.- Es importante reflexionar antes sobre el uso real que se está dando a la IA. En el caso de las pymes, la adopción todavía es muy incipiente, y en aquellas empresas que sí la están utilizando, la detección de sesgos es aún limitada.
Me sorprende ver con frecuencia contenidos generados por IA -como imágenes en campañas publicitarias- que reproducen estereotipos muy marcados: representaciones de latinoamericanos como indígenas o personas esclavizadas, o mujeres exclusivamente en roles de limpieza. Lo preocupante es que estos sesgos a menudo pasan desapercibidos para los propios usuarios, posiblemente porque también reproducen de forma inconsciente esos mismos prejuicios.
Los sesgos están presentes y son reales, pero el verdadero reto es empezar a reconocerlos. Porque si no se detectan, también podríamos estar ante un reflejo de los sesgos de quienes diseñan, seleccionan o validan esos contenidos.
ORH.- Tras un análisis empírico sobre casos de uso reales, el Proyecto IA+Igual ha constatado que muchas empresas carecen de un protocolo de implantación que facilite el cumplimiento de las obligaciones del RIA respecto a los empleados: comunicación, transparencia, explicabilidad… ¿Cómo sensibilizar a las organizaciones acerca de este crítico requerimiento?
A.A.- Una forma efectiva de sensibilizar a las empresas no pasa necesariamente por apelar únicamente al compromiso ético o la justicia social, aunque son aspectos clave, sino por explicar con claridad el coste económico de ignorar estas obligaciones. La fórmula bien conocida en contabilidad se llama ‘coste de oportunidad’.
Si una empresa implementa soluciones de inteligencia artificial sin cumplir con las exigencias del RIA -como la transparencia- puede estar generando pérdidas, aunque no se evidencien de forma inmediata.
Pensemos, por ejemplo, en un sistema automatizado de selección de personal que, por reproducir sesgos, descarte a candidatas o candidatos perfectamente válidos. Esto puede traducirse en procesos de contratación fallidos, altas tasas de rotación y en una curva de aprendizaje constante que repercute en los costes operativos.
En lugar de atraer talento que se adapte y permanezca en la organización, la IA mal implementada puede filtrar perfiles erróneamente, afectando la eficiencia y sostenibilidad del negocio. Por ello, el cumplimiento del RIA no es una obligación burocrática más, sino una herramienta estratégica que protege el desempeño empresarial a corto, medio y largo plazo.
Alucinaciones, datos y sesgos
ORH.- Se habla poco del riesgo de las alucinaciones en el uso de la IA. ¿‘Alucinan’ demasiado las empresas? ¿Qué están haciendo para evitar que la IA les engañe?
A.A.- Las alucinaciones asociadas al uso de la inteligencia artificial pueden entenderse en dos planos: el de la máquina y el del ser humano. Por un lado, hemos empezado a ver casos de personas que interactúan con sistemas conversacionales como si fuesen humanos, depositando en ellos emociones o expectativas personales. Esto recuerda a episodios de Black Mirror, pero ya es una realidad: hay quienes consultan a la IA para teorías conspiranoicas o incluso para leer el tarot. La soledad o la necesidad de validación pueden llevar a que el usuario ‘alucine’ con las capacidades reales del sistema, interpretándolo como un ente sensible, extraterrestre o con voluntad propia.
Por otro lado, está el fenómeno más técnico de las alucinaciones generadas por los propios modelos de IA: respuestas incorrectas, inventadas o inconsistentes, que no se basan en datos reales. Estas alucinaciones son producto de limitaciones del modelo y de cómo ha sido entrenado, y aunque se han identificado desde el inicio de los grandes modelos lingüísticos en 2022, su corrección aún está lejos de ser resuelta.
Algunas estrategias ya en uso para mitigar este fenómeno incluyen la petición explícita de razonamiento ‘hazlo paso a paso’, una técnica que ayuda al modelo a generar respuestas más coherentes y menos erróneas. Modelos como el chino DeepSeek han empezado a integrar esta lógica por defecto, pero la mayoría aún depende de cómo formule el usuario la pregunta.
En definitiva, evitar que la IA ‘alucine’ requiere dos cosas: mejor ingeniería en los modelos y, sobre todo, usuarios más críticos y formados. Saber preguntar, verificar lo que se responde y recordar siempre que no estamos ante un ser pensante, sino ante un lenguaje probabilístico entrenado para imitar el sentido.
ORH.- Entramos en el tratamiento de los datos que alimentan los algoritmos. ¿Qué precauciones debe tomar la empresa antes de embarcarse en un proyecto de IA que afecte directamente a los trabajadores? Además del RIA, el RGPD es muy claro al respecto.
A.A.- Uno de los aspectos más críticos es garantizar que no existan fugas de información sensible. El ciudadano promedio ya es muy consciente -y cada vez más receloso- del uso indebido de sus datos, y la normativa europea, tanto el RGPD como el Reglamento de IA, es tajante en este sentido.
Antes de implementar cualquier proyecto de IA que impacte directamente en los trabajadores, la empresa debe preguntarse: ¿Quién tiene acceso a los datos que alimentan el sistema?, ¿Qué uso se hará de ellos?, ¿Y qué garantías se ofrecen sobre su confidencialidad?
Muchas compañías de referencia han comenzado a desarrollar soluciones de IA cerradas y de uso interno, precisamente para garantizar que la información generada no salga del ecosistema digital corporativo. Sin embargo, el mayor riesgo muchas veces no está en el sistema en sí, sino en el factor humano: empleados con acceso que, por descuido o mala fe, pueden comprometer la seguridad de datos valiosos para la empresa, o incluso susceptibles de explotación por parte de terceros o de la competencia.
Por tanto, además de cumplir con los marcos regulatorios vigentes, sensibilizar y formar al equipo humano en el uso ético, seguro y responsable de los sistemas de IA es una obligación estratégica.
ORH.- En positivo, ¿Cómo usar los datos para frenar los posibles sesgos y favorecer la inclusión en el mercado laboral?
A.A.- Esta es una tarea que solo puede abordarse de forma eficaz si se trabaja codo a codo con los expertos que conocen a fondo la arquitectura y el ‘alma’ de la inteligencia artificial. Reentrenar o reajustar un modelo de IA implica definir con claridad -y trasladar al sistema- los parámetros éticos y lógicos que deben guiar su funcionamiento.
Es un hecho que la humanidad está atravesada por muchos sesgos, y la IA, al nutrirse del enorme universo digital que hemos generado, inevitablemente tiende a replicarlos. Sin embargo, es posible ‘sensibilizar’ a la IA, es decir, dotarla de mecanismos que le permitan reconocer ciertos patrones como éticamente indeseables o socialmente excluyentes. Esto no significa moralizar al sistema, sino programarlo con reglas que reflejen nuestros valores colectivos actuales.
La ética no es un marco fijo e inmutable; ha evolucionado a lo largo de la historia y continuará haciéndolo. Del mismo modo, los sesgos sociales también cambian con el tiempo. Por eso, una IA verdaderamente útil y alineada con el progreso humano debe ser capaz de adaptarse, reconfigurarse y corregirse conforme avanzan nuestros consensos sociales. La clave está en diseñar sistemas de IA que no solo aprendan del pasado, sino que se actualicen continuamente con criterios de equidad y justicia.
El instinto de supervivencia profesional exige adaptabilidad
ORH.- La capacitación de los profesionales es un buen aliado para introducir la IA. Pero, sin ir más lejos, este mes IBM ha despedido a 8.000 trabajadores para reemplazarlos por IA. ¿Qué futuro espera a los trabajadores y a los profesionales de cuello blanco?
A.A.- Los llamados trabajadores de cuello blanco o ejecutivos, como prefiero llamarlos, deben comenzar cuanto antes un proceso serio de reciclaje profesional. La clave está en aprender a convivir con la IA, a usarla con criterio y a posicionarse como referentes humanos en sus respectivos campos.
Resistirse a la irrupción de la inteligencia artificial es tan inútil como pretender evitar las arrugas con el paso del tiempo.
No se trata de esperar pasivamente la temida carta de despido, sino de anticiparse: explorar nuevos modelos de negocio, identificar oportunidades donde aún es necesario el juicio humano, y transformar nuestras capacidades. Como profesor universitario, soy consciente de que mi perfil también será pronto sustituible. Y, ante eso, ¿cuál es mi respuesta? No quedarme inmóvil. Me transformo, evoluciono, aprendo nuevas herramientas, y exploro cómo generar valor en otras áreas.
La humanidad no será reemplazada en su totalidad, al menos no aún. Pero el instinto de supervivencia profesional exige adaptabilidad. Quizás termine aprendiendo a programar en Python y contribuyendo desde dentro a la reconfiguración ética de los sistemas de IA. Suena radical, pero es una posibilidad real.
Entiendo que no es fácil para todos decirlo o hacerlo, sobre todo desde contextos laborales muy distintos. Pero puedo afirmar con convicción que esta es la fórmula que yo mismo he comenzado a aplicar. Y hasta ahora, funciona.
ORH.- En medio de las ventajas y riesgos del uso de la IA, ¿Cómo pueden protegerse los profesionales a medio plazo? ¿Impactará más esta tendencia en los colectivos con riesgo de exclusión social?
A.A.- Los colectivos en riesgo de exclusión social ya enfrentan una realidad dura, y la IA, lejos de suavizarla, puede sin duda intensificarla. Es, por decirlo así, añadir leña al fuego. Por eso, tanto los profesionales en general como quienes se encuentran en situaciones vulnerables deben ver la educación continua como su principal escudo.
Pensar que ya es suficiente con haber terminado la carrera o tener un máster es una visión cortoplacista. Hoy más que nunca, hay que replantearse el camino: ¿un doctorado? ¿un curso técnico? ¿transformar una afición/hobby en una fuente de ingresos? Las posibilidades están, pero requieren iniciativa.
El verdadero riesgo está en la inacción, en quedarse inmóviles dentro de la famosa zona de confort. Y, aunque suene duro, me preocupa ver a muchos jóvenes atrapados por la pereza, un síntoma más de la adicción digital, que ya se reconoce como una enfermedad.
Protegerse en este nuevo contexto implica moverse, desaprender y reaprender, salir al mundo con ojos nuevos, y sobre todo considerar a la pereza como tu peor enemigo. Así que, si estás leyendo esto: ¡actívate ya! No te paralices.