Universidades Europeas

La influencia del lenguaje en los estereotipos de género en imágenes generadas por IA

Estereotipos de género

Redacción | Viernes 24 de octubre de 2025

Investigadores de la TUM y TU Darmstadt analizan cómo los generadores de imágenes por IA refuerzan estereotipos de género, variando su impacto según el idioma utilizado en las descripciones.



Investigadores de la Tecnológica Universidad de Múnich (TUM) y de la TU Darmstadt han llevado a cabo un estudio que examina cómo los generadores de imágenes a partir de texto manejan los roles de género en diferentes idiomas. Los hallazgos revelan que estos modelos no solo reflejan los estereotipos de género, sino que también tienden a **reforzarlos**. La dirección y la intensidad de estas distorsiones dependen del idioma utilizado.

Análisis de modelos en múltiples idiomas

En su investigación, los científicos analizaron modelos en relación con nueve idiomas distintos, contrastando sus resultados. Mientras que estudios anteriores se habían centrado principalmente en el inglés, el equipo desarrolló un nuevo estándar denominado “Evaluación Multilingüe del Sesgo de Género en la Generación de Imágenes” (MAGBIG). Este se basó en títulos profesionales cuidadosamente construidos. Se estudiaron cuatro tipos diferentes de entradas: prompts directos usando el masculino genérico (“médico”), descripciones indirectas (“una persona que trabaja como médico”), prompts explícitamente femeninos (“médica”, “female doctor”) y variantes de género (“médico/a”).

Para asegurar la comparabilidad de los resultados, los investigadores seleccionaron idiomas que diferencian entre masculino y femenino en las designaciones profesionales, como el alemán, español y francés. También incluyeron lenguas que utilizan un solo género gramatical pero hacen distinciones en pronombres (como “her” y “his” en inglés o japonés), así como aquellos sin género gramatical, como el coreano y el chino.

Reproducción y refuerzo de estereotipos por parte de la IA

Los resultados obtenidos indican que los prompts directos con masculino genérico presentan las mayores distorsiones. Por ejemplo, profesiones como contables son predominantemente representadas por hombres blancos, mientras que las ocupaciones relacionadas con el cuidado son mayormente asociadas a mujeres. Las reformulaciones neutrales o las formas inclusivas logran mitigar ligeramente estos estereotipos; sin embargo, los prompts explícitamente femeninos muestran casi exclusivamente a mujeres. Además del análisis sobre la distribución de género, se evaluó cómo bien comprenden e implementan los modelos las distintas entradas. Se observó que las formulaciones neutrales reducen los estereotipos, pero al mismo tiempo pueden deteriorar la calidad del resultado visual respecto al texto ingresado.

“Nuestros hallazgos subrayan que el diseño del lenguaje tiene un impacto significativo en la equidad de los generadores de imágenes basados en IA”, afirma Alexander Fraser, profesor de Análisis de Datos y Estadísticas en el campus TUM Heilbronn. “Quienes implementan sistemas de IA deben ser conscientes de que distintas formulaciones pueden evocar imágenes muy diferentes, lo cual puede reforzar o debilitar representaciones sociales.”

“Los generadores de imágenes por IA no son neutrales; ilustran nuestros prejuicios con alta resolución, lo cual depende crucialmente del idioma. Especialmente en Europa, donde coexisten múltiples lenguas, esto debe ser una llamada a la acción: una IA justa debe ser diseñada teniendo en cuenta las diferencias lingüísticas,” añade Prof. Kristian Kersting, co-director del hessian.AI y co-portavoz del clúster de excelencia “Inteligencia Artificial Responsable” en TU Darmstadt.

Es notable que la intensidad de las distorsiones no siempre se correlaciona directamente con las estructuras gramaticales del idioma. Por ejemplo, utilizar los mismos prompts en español versus francés puede resultar en una mayor aparición de estereotipos, a pesar de que ambas lenguas diferencian entre designaciones profesionales masculinas y femeninas.

Citas relevantes sobre el impacto del lenguaje

"La forma en que utilizamos el lenguaje influye considerablemente sobre cómo se representan ciertos roles", concluye Fraser. Esta investigación destaca la necesidad urgente de abordar cómo interactúan los modelos lingüísticos con nuestras concepciones culturales sobre género.

A medida que avanzamos hacia un futuro donde la inteligencia artificial juega un papel cada vez más importante en nuestras vidas cotidianas, es esencial considerar estas dinámicas para fomentar una representación más equitativa y justa.

TEMAS RELACIONADOS:


Noticias relacionadas