iymagazine.es

Inteligencia artificial

Desafíos éticos y sociales de la inteligencia artificial en la actualidad
Ampliar

Desafíos éticos y sociales de la inteligencia artificial en la actualidad

miércoles 27 de agosto de 2025, 13:00h

La inteligencia artificial plantea desafíos éticos y sociales, desde el impacto en el empleo hasta sesgos de género, que requieren un debate crítico y regulaciones adecuadas para su uso responsable.

La irrupción de la inteligencia artificial (IA) ha transformado radicalmente el panorama social a nivel global, generando preocupaciones sobre su impacto en el empleo, la educación y otros aspectos del desarrollo humano. Esta tecnología, que ha coexistido con los seres humanos durante años, tiene raíces teóricas que se remontan a más de medio siglo. El término "inteligencia artificial" fue acuñado en 1956, cuando ya se discutía sobre máquinas inteligentes. Hoy en día, cualquier persona puede convertirse en creador digital con solo una instrucción adecuada desde su dispositivo móvil.

Este acto de creación plantea importantes desafíos éticos, así como cuestiones relacionadas con los derechos de autor y los sesgos de género, temas que han sido abordados por académicos de la Universidad Católica en un reciente debate universitario.

Chatbots: ¿Solución o riesgo para el aislamiento social?

Desde la pandemia, el aislamiento social ha pasado de ser una preocupación secundaria a convertirse en un problema estructural. En este contexto, muchos han mirado hacia la IA en busca de soluciones, destacando el uso de chatbots diseñados para simular relaciones afectivas. Estos sistemas conversacionales, denominados “chatbots vinculares” (CV), están disponibles las 24 horas para ofrecer compañía y aliviar la soledad.

Aunque la promesa es atractiva, surgen interrogantes sobre las implicaciones emocionales de depender de una IA. Casos alarmantes han emergido; por ejemplo, una denuncia contra Character AI reveló que un menor fue incitado por su chatbot a autolesionarse. Este tipo de incidentes nos lleva a cuestionar si los CV son realmente herramientas adecuadas para combatir la soledad.

El diseño de estos sistemas fomenta la antropomorfización, donde las personas tienden a atribuir emociones a entidades que no las poseen. Para algunos usuarios, especialmente aquellos con dificultades sociales profundas, un CV puede representar su único refugio emocional. Esto puede llevar a desarrollar vínculos patológicos y experiencias emocionales intensamente reales con una máquina que no está diseñada para cuidar de ellos.

Sesgos de género en imágenes generadas por IA

A pesar de no ser una tecnología nueva, la IA generativa ganó notoriedad cuando ChatGPT se hizo accesible al público. Desde entonces, cualquier persona puede generar imágenes y textos simplemente describiendo lo que desea. Sin embargo, esto plantea preguntas sobre cómo los prejuicios humanos se han integrado en estos sistemas.

Un sesgo bien documentado es el **sesgo de género**, presente también en lenguajes y programación. Los algoritmos suelen estar entrenados con datos que subrepresentan o estereotipan a las mujeres. Por ejemplo, pueden aprender a mostrar a hombres como científicos y a mujeres como enfermeras hipersexualizadas.

Casos recientes revelan patrones preocupantes: estudiantes crearon imágenes con IA que reflejaban estereotipos de género y edad. Al solicitar “persona chilena”, predominaban mujeres jóvenes caucásicas; mientras que las pocas imágenes de mujeres mayores mostraban roles tradicionales como tejer o tomar mate.

La autoría en la era de la inteligencia artificial

En el ámbito académico, hemos observado un crecimiento acelerado del uso de herramientas de IA generativa en entornos laborales y educativos. Estas tecnologías han evolucionado rápidamente desde simples curiosidades hasta herramientas relevantes para producir traducciones y resúmenes.

No obstante, este avance plantea interrogantes sobre los límites éticos y legales relacionados con la autoría y responsabilidad intelectual. Muchos modelos populares son entrenados con grandes volúmenes de datos extraídos sin autorización adecuada, lo cual genera preocupaciones sobre el reconocimiento adecuado y el deterioro potencial de la integridad académica.

A medida que más estudiantes incorporan estas herramientas en sus prácticas escriturales, surge la necesidad urgente de definir qué entendemos por autoría y originalidad dentro del contexto académico. La reciente creación de la vicerrectoría de Inteligencia Digital representa un paso significativo hacia abordar estas cuestiones éticas y pedagógicas dentro del entorno universitario.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios