
El análisis de más de un millón de imágenes en cinco plataformas de internet y nueve modelos de inteligencia artificial revela que se representa a las mujeres como menos experimentadas que los hombres en todas las profesiones
08 oct 2025 . Actualizado a las 17:12 h.Un estudio publicado en la revista Nature ha demostrado que las plataformas digitales y los modelos de lenguaje de inteligencia artificial, como ChatGPT y Google, perpetúan un sesgo de género y edad al representar a las mujeres profesionales como más jóvenes, y por tanto menos experimentadas, que sus colegas masculinos. Este hallazgo es especialmente notable en profesiones de alto estatus, a pesar de que los datos reales de la población activa en Estados Unidos, donde se llevó a cabo la investigación no muestran diferencias significativas de edad entre hombres y mujeres.
El estudio analizó 1.4 millones de imágenes en cinco plataformas (Google, Wikipedia, IMDb, Flickr y YouTube), además de nueve modelos extensos de lenguaje, como ChatGPT, entrenados con textos provenientes de Reddit, Google News, Wikipedia y Twitter.
Este tipo de sesgo de género relacionado con la edad se ha observado en otros estudios de sectores específicos y, de forma anecdótica, como en informes sobre mujeres a las que se les llama «niñas»», afirma Solène Delecourt, profesora adjunta de Berkeley Haas y coautora del estudio junto con Douglas Guilbeault, de la Escuela de Posgrado de Negocios de Stanford, y Bhargav Srinivasa Desikan, del Instituto Autonomy de la Universidad de Oxford. «Pero nadie había podido examinar esto a tal escala».
La distorsión fue más marcada en las ocupaciones de alto estatus y altos ingresos. Es más, los investigadores descubrieron que los algoritmos convencionales amplifican aún más el sesgo de género relacionado con la edad: al generar y evaluar casi 40.000 currículos ChatGPT asumió que las mujeres eran más jóvenes y menos experimentadas, mientras que calificó a los solicitantes hombres de mayor edad como más cualificados.
«Las imágenes en línea muestran lo contrario de la realidad. Y aunque internet se equivoca, cuando nos cuenta este "hecho" sobre el mundo, empezamos a creerlo», subraya Douglas Guilbeault, profesor de posgrado de Negocios de la Universidad de Stanford y otro de los autores del trabajo.
Tras estos hallazgos, los investigadores realizaron dos experimentos para comprender cómo los algoritmos en línea amplifican este sesgo. En el primero, se dividió a aproximadamente 500 participantes en dos grupos. La mitad buscó ocupaciones específicas en Google Imágenes, etiquetó el género de las personas que aparecían en las imágenes y calculó las edades promedio y las preferencias de contratación para esos puestos. El grupo de control buscó imágenes no relacionadas, como una manzana o una guitarra, y luego calculó las asociaciones entre la edad y el género para esas mismas ocupaciones, pero sin exposición a imágenes de ellas.
Los participantes que vieron imágenes de mujeres en ocupaciones relacionadas estimaron que la edad promedio para ese puesto era significativamente menor que la del grupo de control, mientras que quienes vieron a un hombre realizando el mismo trabajo asumieron que la edad promedio era significativamente mayor. Para las ocupaciones percibidas como predominantemente femeninas, los participantes recomendaron edades ideales de contratación más jóvenes; para las ocupaciones predominantemente masculinas, recomendaron edades de contratación más altas.
En el segundo experimento, los investigadores solicitaron a ChatGPT que generara casi 40.000 currículums de 54 ocupaciones, utilizando nombres distintivos masculinos y femeninos, que coincidían en popularidad, etnia y otros factores. Al generar currículums de mujeres, ChatGPT asumió que eran 1,6 años más jóvenes, con fechas de graduación más recientes y menos experiencia laboral que los currículums con nombres masculinos.
Al evaluar los currículos, ChatGPT dio una mejor calificación a los hombres mayores que a las mujeres para los mismos puestos. Este resultado se observó tanto si los investigadores proporcionaban los nombres como si ChatGPT generaba sus propios solicitantes, lo que demuestra que el sesgo está profundamente arraigado en el sistema.
Según Pablo Haya Coll, investigador de la Universidad Autónoma de Madrid, este sesgo algorítmico es preocupante porque no es solo simbólico, sino que tiene efectos reales. Al influir en las percepciones sobre la edad y la experiencia, puede desfavorecer a las mujeres mayores en procesos de selección y promoción laboral, limitando su acceso a puestos de responsabilidad y reforzando desigualdades estructurales.
«Este sesgo, más evidente en profesiones de alto estatus, influye en percepciones y decisiones laborales, desfavoreciendo a las mujeres mayores. En conjunto, la investigación evidencia que estos algoritmos refuerzan desigualdades estructurales y distorsionan la representación social de mujeres y hombres en el entorno digital», explica en una reacción al estudio recogido por SMC España.
La profesora Marian Blanco Ruiz de la Universidad Rey Juan Carlos, añade que el trabajo confirma lo que el feminismo ha señalado durante décadas: la tecnología no es neutral, sino que amplifica los estereotipos culturales preexistentes.«La constatación de que las mujeres aparecen representadas como más jóvenes que los hombres en ocupaciones de prestigio refleja un patrón cultural de larga duración, vinculado a lo que Laura Mulvey denominó la ‘mirada masculina'», señala a SMC.
Nuria Oliver, directora científica de la Fundación ELLIS Alicante y reciente Premio Nacional Julio Rey Pastor de Matemáticas, subraya la importancia de este estudio por su rigor técnico. El análisis cuantificó de forma precisa cómo Google Imágenes amplifica la brecha de edad percibida en más de cinco años y cómo ChatGPT propaga este sesgo en los currículos que genera.
«Los algoritmos aprenden de un archivo cultural sesgado, organizado en torno a jerarquías de género, raza y clase, entre otras. Lo preocupante es que, al incorporarse en sistemas automatizados con gran autoridad social, tales sesgos no sean solo simbólicos, sino que se conviertan en discriminaciones con efectos reales en la vida», sostiene Oliver.
Los expertos coinciden en la necesidad urgente de tomar medidas. Pablo Haya Coll destaca la importancia de auditar los algoritmos y exigir transparencia a los sistemas de IA, en línea con el Reglamento Europeo de Inteligencia Artificial (RIA). También menciona la necesidad de una educación digital crítica desde la etapa escolar.
Si bien el estudio se basó en datos de Estados Unidos, los investigadores señalan que es fundamental investigar cómo estos sesgos se manifiestan en otras regiones y desarrollar estrategias para mitigar estas distorsiones y construir un entorno digital más justo e inclusivo