Los casos de sesgo en la inteligencia artificial (IA) han captado una atención considerable, revelando los desafíos que enfrenta la industria para garantizar la equidad en los sistemas automatizados. Un ejemplo notable es el de Google Gemini, que recibió críticas por generar imágenes históricamente inexactas. Por otro lado, xAI y su herramienta Grok fueron señalados por producir respuestas con sesgo político. Asimismo, ChatGPT ha sido objeto de escrutinio por su tendencia a reflejar prejuicios incrustados en los datos de entrenamiento, lo que a veces resulta en sugerencias problemáticas u ofensivas.
El impacto de estos sesgos ha sido minimizado hasta ahora, considerándose como una serie de errores naturales que surgen a medida que los sistemas aprenden y evolucionan. Sin embargo, a medida que el uso de la IA generativa se vuelve más omnipresente, el riesgo de que estos errores causen daños en el mundo real aumenta significativamente.
La Realidad del Sesgo en la IA
La doctora Patricia Gestoso, estratega en inclusión y IA, afirmó que el sesgo ha existido siempre. Explicó que la IA simplemente acelera el proceso de llegar a conclusiones distorsionadas. Parte del problema radica en la percepción errónea de que campos como los algoritmos y las matemáticas son objetivos. “Eso no es cierto”, subrayó Gestoso, enfatizando que el resultado depende de los datos introducidos: “Es como una receta. Un algoritmo es una receta”.
Gestoso, quien tiene más de 15 años de experiencia asesorando a empresas y organizaciones sobre tecnología, ciencia, diversidad e inclusión, así como análisis de datos y experiencia del cliente, aporta un peso considerable a sus opiniones. Ella destacó cómo las matemáticas y estadísticas han sido “armadas contra grupos”, manipulando datos para ajustarse a narrativas particulares. En este contexto, argumenta que la IA facilita aún más este proceso.
Si el sesgo ha existido siempre, surge la pregunta: ¿importa si la IA consumidora exhibe las mismas características? Gestoso utilizó el mercado laboral como un ejemplo donde el sesgo en la IA es problemático. La tecnología se utiliza para redactar descripciones de trabajo y clasificar solicitantes, lo cual puede excluir a personas incluso antes de postularse debido al uso de ciertos rasgos lingüísticos o desestimar su aplicación según cómo se utilicen los datos proporcionados.
Implicaciones Más Allá del Mercado Laboral
La IA ya está ofreciendo resultados diferentes para hombres y mujeres al investigar información sobre roles laborales y niveles salariales o al preparar currículos vitae (CVs) basados en el género del solicitante. Gestoso también destacó implicaciones más profundas en el ámbito sanitario, donde la creciente influencia de la IA podría distorsionar cómo se trata a ciertos grupos o géneros.
Uno de los mayores problemas desde su perspectiva es que la IA generativa —la rama que crea contenido como textos e imágenes— es persuasiva. Las personas tienden a creer en los resultados generados por esta tecnología, aunque muchas empresas desarrolladoras reconocen que aún no está lista para ese nivel y que los resultados deben ser verificados.
A pesar de los problemas causados por la IA misma, Gestoso también señaló deficiencias en el enfoque mayormente experimental utilizado para su desarrollo. Este método deja abierta la puerta a daños potenciales mientras se corrigen errores y se ajustan detalles; un enfoque que no sería aceptable en ningún otro campo: “no le diríamos a un médico que simplemente lo intente con un nuevo medicamento”.
Caminos hacia una Regulación Efectiva
Aunque Gestoso reconoce un vínculo potencial entre los sesgos históricos o inconscientes de quienes desarrollan IA y las preconcepciones tecnológicas resultantes, no considera esto como raíz del problema. En cambio, sugiere que existe una sobreestimación del potencial tecnológico actual por parte de quienes lo promueven.
"Tenemos mucho lo que yo llamo 'lavado de IA'", dijo Gestoso, refiriéndose a situaciones donde aún persiste trabajo manual o empresas han retrocedido en reemplazar personal humano con chatbots y agentes artificiales.
A pesar del desafío del sesgo en la IA, Gestoso sostiene que no necesariamente se requieren nuevas leyes para abordarlo; muchas normativas existentes pueden aplicarse al mundo digital. Sin embargo, sí cree que las plataformas e intermediarios deben asumir responsabilidad respecto al acceso a esta tecnología.
Perspectivas Académicas sobre el Sesgo Algorítmico
Allison Koenecke, profesora asistente de Ciencia de la Información en Cornell Tech, opina sobre esta problemática desde una perspectiva académica centrada en la intersección entre economía e informática. Su enfoque incluye evaluar si los sistemas de aprendizaje automático operan sin sesgos.
Koenecke explica que existe cierta fluidez en cómo se define este concepto; abarca desde asegurar representación justa para grupos marginados hasta consideraciones teóricas sobre definiciones matemáticas diversas relacionadas con la equidad algorítmica.
A través del análisis específico sobre transcripciones voz-a-texto, Koenecke ilustra cómo puede surgir sesgo si hay escasez de voces representativas dentro del conjunto formativo. Si “hay muy pocas voces negras hablando inglés afroamericano” entre los datos utilizados para entrenar modelos, entonces las transcripciones serán deficientes al tratar esas voces posteriormente.