El maltrato verbal hacia las mujeres en redes se traslada a la IA
Las interacciones digitales y redes sociales son un caldo de cultivo para comportamientos agresivos, donde el anonimato permite que muchos usuarios ignoren el impacto de sus palabras. Este fenómeno es especialmente preocupante para mujeres y niñas, quienes se convierten en blanco de agresiones debido a los estereotipos de género que persisten en nuestra sociedad.
Estudios recientes han revelado que las agresiones hacia las mujeres no solo se centran en su apariencia física o su vida personal, sino que también reflejan una serie de patrones y estereotipos dañinos. Estos patrones evidencian cómo el lenguaje utilizado en las redes sociales refleja actitudes sexistas, trasladando comportamientos del mundo real al virtual.
La inteligencia artificial como reflejo social
Con la creciente presencia de la inteligencia artificial (IA) en nuestra vida diaria, surge la inquietud de que los modelos de lenguaje entrenados con datos extraídos de internet puedan perpetuar estos sesgos. Así, la IA se convierte en un espejo que refleja y refuerza los estereotipos existentes.
Cuando interactuamos con asistentes virtuales, tendemos a asignarles un género. Los estudios indican que los asistentes percibidos como femeninos suelen ser asociados con roles de cuidado y asistencia, mientras que aquellos considerados masculinos son vistos como más competentes en tareas técnicas. Esta percepción sesgada contribuye a la normalización de roles tradicionales y limita la visión sobre las capacidades de ambos géneros.
Agresiones hacia asistentes virtuales
Investigaciones han mostrado que entre el 10 % y el 44 % de las interacciones con bots femeninos incluyen lenguaje abusivo, lo cual es alarmante. Este tipo de comportamiento no solo afecta a las mujeres en el ámbito real, sino que también se manifiesta en nuestras interacciones con la tecnología.
A pesar de ser programadas para manejar diversos tipos de interacción, muchas asistentes virtuales no logran identificar comentarios sexistas o inapropiados. Respuestas evasivas o coquetas ante insultos directos son comunes, lo cual refuerza aún más la idea de que estos intercambios son aceptables.
Normalización del acoso y sus implicaciones
La falta de respuestas asertivas por parte de estas asistentes pone de relieve un problema mayor: la normalización del acoso verbal. Aunque tecnologías como Siri o Alexa no "sufren" ante tales comentarios, esto puede tener consecuencias perjudiciales al influir en cómo los jóvenes perciben e interactúan con las mujeres en su entorno cotidiano.
Dada esta realidad, es crucial abordar este problema desde la educación temprana y fomentar una perspectiva de género en campos tecnológicos donde la representación femenina es escasa. Según datos recientes, solo un 12 % de los investigadores en inteligencia artificial son mujeres, cifra que disminuye aún más en áreas como el desarrollo de software.
Hacia una solución integral
Para combatir esta nueva forma de agresión digital hacia mujeres y niñas, es fundamental implementar estrategias educativas desde edades tempranas. Además, incluir a más mujeres en el diseño y desarrollo tecnológico es esencial para crear soluciones efectivas contra estos sesgos.
La investigación lingüística, combinada con una ética sólida en el diseño tecnológico, permitirá identificar patrones dañinos y trabajar para eliminarlos. De esta manera, podemos aspirar a convertir la inteligencia artificial en una aliada en lugar de una fuente perpetuadora del acoso y los estereotipos negativos.
Mª Milagros del Saz Rubio es profesora titular del Departamento de Lingüística Aplicada en la Universidad Politécnica de Valencia (UPV).
La noticia en cifras
Cifra |
Descripción |
12% |
Porcentaje de investigadoras en el ámbito de la inteligencia artificial según datos de la UNESCO. |
6% |
Porcentaje de mujeres desarrolladoras de software. |
20% |
Porcentaje de empleadas en puestos técnicos en empresas de aprendizaje automático. |
10% - 44% |
Porcentaje de conversaciones con agentes conversacionales femeninas que incluyen lenguaje abusivo. |