Forbes Ecuador
IA, Empresas, brecha de género
Liderazgo

Un estudio revela que las mujeres que usan IA en el trabajo son vistas como "menos competentes" que los hombres

Juan Pablo Tripodi

Share

Aunque produzcan tareas idénticas, las empleadas que recurren a herramientas automatizadas enfrentan un castigo extra: reciben peores evaluaciones que sus colegas varones, incluso dentro de empresas que promueven activamente su uso.

6 Octubre de 2025 07.02

Investigadores de la Universidad Politécnica de Hong Kong y la Universidad de Pekín encontraron una nueva forma en la que los sesgos de género sobre la competencia castigan a las mujeres en el trabajo. Según un estudio de 2025, cuando tanto hombres como mujeres usan IA para producir el mismo tipo de trabajo, ellas son vistas como menos competentes.

El resultado no sorprende. En 2024, una investigación publicada en Social Psychology Quarterly ya había detectado situaciones similares. En ese estudio, mujeres con un rendimiento igual al de sus compañeros varones también fueron consideradas menos competentes. Esa misma penalización se repitió entre quienes trabajaban horas extra. El experimento se hizo con 230 empleados de Estados Unidos que evaluaron dos perfiles laborales con evaluaciones de desempeño idénticas. La única diferencia era el género del trabajador y si hacía 60 o 40 horas semanales.

A pesar de tener evaluaciones de desempeño idénticas, los evaluadores eligieron al trabajador que hacía 60 horas semanales para recibir recompensas laborales en casi el 89 % de los casos. Sin embargo, los hombres obtuvieron esa "prima por exceso de trabajo" bastante más seguido que las mujeres, aun cuando ellas también sumaban la misma cantidad de horas extra. En concreto, los hombres que trabajaban 60 horas por semana tuvieron un 8 % más de chances de recibir beneficios laborales frente a mujeres en la misma situación. Ambos estudios tiran abajo la idea de que las decisiones en el trabajo se toman en base al mérito.

Por eso, los empleadores deberían pensar en tomar medidas concretas para romper con los estereotipos de género que todavía pesan sobre la idea de competencia. Solo así podrían equilibrar las condiciones dentro del trabajo y aprovechar al máximo el talento de sus equipos.

Las mujeres que utilizan IA son consideradas menos competentes

En el estudio más reciente, centrado en el uso de IA en el ámbito laboral, los líderes de una empresa tecnológica global —que prefirió mantenerse en el anonimato— y que figura entre las 50 mejores del ranking Forbes Global 2000, lanzaron una campaña interna para fomentar que sus ingenieros de software adoptaran una herramienta de IA generativa para programación. Sin embargo, pese a los esfuerzos durante un año, solo el 41 % del equipo técnico usaba la herramienta. Entre las mujeres, ese número bajaba al 31 %. Ante estos resultados, que consideraron decepcionantes, los directivos decidieron contactar a investigadores de la Universidad de Pekín y de la Universidad Politécnica de Hong Kong para entender qué estaba fallando.

Los investigadores pusieron en marcha un estudio con 1.026 ingenieros de software de la empresa. A cada uno le pidieron que evaluara el mismo fragmento de código. Aunque todos recibieron el mismo código, a algunos se les indicó que había sido escrito con ayuda de IA, a otros que no, y además se les dijo si quien lo había programado era un hombre o una mujer. La consigna era evaluar tanto la calidad del código como la competencia de quien lo había escrito.

Tal como se esperaba al tratarse del mismo código, los participantes calificaron su calidad de forma similar en todos los casos. Lo que sí varió —y mucho— fue la percepción sobre la competencia de los ingenieros que supuestamente lo habían creado.

Los revisores aplicaron una penalización clara sobre la competencia a quienes usaban IA, incluso cuando el trabajo era exactamente el mismo que el de quienes no la usaban. Pero el sesgo no terminó ahí: esa penalización fue mucho más fuerte cuando el código supuestamente lo había escrito una mujer.

En líneas generales, los revisores bajaron un 9 % las calificaciones de competencia a quienes, según creían, habían usado asistencia de IA, a pesar de que la empresa había promovido activamente su uso. Esa penalización fue mucho más dura para las mujeres. Mientras que los hombres que usaban IA recibieron notas un 6 % más bajas, las mujeres quedaron 13 % por debajo.

El dato más preocupante apareció al mirar quiénes aplicaban esas diferencias. Los ingenieros varones que no usaban IA fueron los que mostraron el sesgo de género más fuerte: evaluaron a las mujeres que sí usaban IA un 26 % más abajo que a los hombres, aun cuando el trabajo era idéntico.

A quienes evaluaban el código y sabían que el programador había usado IA, también se les pidió que estimaran qué parte del trabajo había hecho la herramienta y cuál el ingeniero. Cuando el programador era una mujer, los revisores atribuyeron una mayor parte del trabajo a la IA que cuando creían que era un hombre.

Estos resultados muestran cómo el uso de IA termina reforzando prejuicios previos sobre la competencia de las mujeres. "La asistencia de IA se presenta como una 'prueba' de su incompetencia, más que como una prueba de su uso estratégico de herramientas", explicaron los investigadores en un artículo publicado en Harvard Business Review.

Este hallazgo ayudó a entender por qué tan pocos ingenieros —y en especial, tan pocas ingenieras— usaban la IA, a pesar del impulso firme que venía promoviendo la empresa.

En una encuesta posterior, realizada a 919 ingenieros de la empresa, las mujeres fueron más propensas que los hombres a manifestar preocupación por la posibilidad de que el uso de IA hiciera que sus jefes valoraran menos sus habilidades como programadoras. Para los investigadores, esta percepción no solo tiene fundamento, sino que explica en parte por qué las mujeres usan menos la herramienta: saben que, en su caso, el costo puede ser mayor. La penalización por competencia basada en el género pesa, y ellas lo tienen claro.

La penalización de la competencia para las mujeres va más allá del uso de la IA

El hecho de que las mujeres sufran una penalización en su competencia al usar IA pone en duda la idea de que estas herramientas puedan ayudar a cerrar la brecha de género en el trabajo. Como era de esperar, estudios previos ya habían mostrado este tipo de sesgo de género, y todo indica que se trata de un patrón persistente. En ambos estudios, el problema suele aparecer cuando se supone que las mujeres usan IA o trabajan más horas porque necesitan compensar una supuesta falta de capacidad.

Mientras que los evaluadores interpretaron que los hombres que adoptaban esas prácticas lo hacían por compromiso profesional, a las mujeres se les atribuía, al menos en parte, una menor competencia. Un tercer estudio, realizado en 2024 por investigadores de las escuelas de negocios de las universidades de Minnesota, Yale y el MIT, reforzó esta idea. Con datos de casi 30.000 empleados con posibilidad de ascenso en una cadena minorista de Estados Unidos, encontraron que las mujeres seguían sufriendo ese mismo castigo incluso cuando su desempeño superaba al de sus colegas varones.

El estudio sobre gestión mostró que las mujeres obtenían, en promedio, mejores calificaciones que los hombres por su desempeño anterior. Aun así, seguían recibiendo evaluaciones un 8,3 % más bajas en cuanto a su potencial futuro. No solo eso: las mujeres tenían un 33 % más de probabilidades que los hombres de obtener la mejor calificación por su trabajo previo, pero la peor cuando se trataba de proyectar su carrera.

Lo más grave es que esa penalización sobre el potencial se mantuvo incluso cuando los datos demostraban que los evaluadores se equivocaban. A lo largo de varios años, quedó claro que sus predicciones no reflejaban la realidad.

Entre hombres y mujeres con calificaciones de potencial similares, las mujeres mostraron un desempeño promedio más alto al año siguiente. Sin embargo, incluso cuando superaban las expectativas previas, los evaluadores seguían otorgándoles puntuaciones de potencial más bajas para el año siguiente.

Inteligencia Artificial
El hecho de que las mujeres sufran una penalización en su competencia al usar IA pone en duda la idea de que estas herramientas puedan ayudar a cerrar la brecha de género en el trabajo.

"Las mujeres tienen que alcanzar un umbral más alto de rendimiento futuro para justificar la misma puntuación potencial", explicó Danielle Li, profesora de negocios en MIT Sloan y coautora del estudio, en una entrevista con MIT Press en 2022.

Cómo los empleadores pueden reducir el sesgo de género y fomentar la innovación en IA

"Nunca vamos a cerrar la brecha de género si evaluamos de manera diferente a personas de distintos géneros por el mismo comportamiento", me dijo Christin L. Munsch, profesora de sociología en la Universidad de Connecticut y autora principal del estudio sobre horas extra, en una entrevista telefónica.

Munsch planteó tres recomendaciones clave para que las organizaciones puedan mejorar la equidad en las evaluaciones y reducir las penalizaciones injustas que muchas veces recaen sobre las mujeres por supuesta falta de competencia.

Evaluar el trabajo, no a la persona que lo hace

En el estudio sobre IA, los revisores debían hacer dos evaluaciones separadas: por un lado, analizar la calidad del código, y por otro, juzgar la competencia del programador. El sesgo de género apareció únicamente en esta segunda tarea.

Cuando creían que una mujer había usado IA para crear el código, los evaluadores la consideraban menos competente que a un hombre, aunque el producto era exactamente el mismo. Sin embargo, calificaron la calidad del código de forma precisa en todos los casos, sin importar si lo había escrito un hombre o una mujer, ni si había usado IA o no.

Este hallazgo apunta a una solución concreta: para evitar que los sesgos influyan, lo mejor sería que las personas que toman decisiones dentro del trabajo se enfoquen solo en el resultado, sin juzgar a quien lo produjo.

Usar un sistema de "revisión a ciegas"

Los investigadores del estudio sobre IA también recomiendan que las evaluaciones laborales se hagan, siempre que se pueda, bajo un sistema de revisión a ciegas. Es decir, que quien evalúa no sepa quién hizo el trabajo.

Aunque esta práctica no se puede aplicar en todos los entornos, eliminar datos personales como el género y otras características que puedan generar prejuicios puede ayudar a que las evaluaciones sean más justas y consistentes.

Reemplazar las calificaciones subjetivas por métricas objetivas

Las penalizaciones por competencia hacia las mujeres suelen aparecer con más fuerza cuando se aplican criterios vagos o poco definidos, como el famoso "potencial". A igualdad de desempeño, ellas terminan perjudicadas cuando la evaluación depende de percepciones personales.

"El problema con la evaluación del potencial es que está mal definido, lo que deja mucho margen de interpretación", explicó Li. "En el momento en que uno se desvía de las métricas, es ahí donde los estereotipos y las percepciones de la gente cobran fuerza".

Los investigadores también sugieren vincular las responsabilidades del trabajo con habilidades concretas y resultados medibles. Esa debería ser la base de cualquier evaluación de desempeño. "Definir lo que se intenta medir implica exigir cierta responsabilidad en la forma en que las personas lo miden", sostuvo Li.

Adoptar estas tres prácticas no solo podría reducir la penalización por competencia que enfrentan las mujeres que usan IA, sino también mejorar la equidad en cualquier contexto laboral donde persisten dudas injustificadas sobre su capacidad.

 


*Con información de Forbes US.

10