Un estudio de la Universidad La Sapienza revela que los modelos de lenguaje (LLM) pueden influir en el juicio humano, mostrando sesgos y limitaciones en su capacidad evaluativa.
Un reciente estudio del Departamento de Informática de la Sapienza, publicado en la prestigiosa revista Pnas, ha revelado los riesgos asociados a una creciente confianza en las capacidades evaluativas de los Large Language Models (LLM). Estos modelos, que se utilizan cada vez más para tareas que van más allá de la simple búsqueda de información, están comenzando a influir en cómo las personas, especialmente las generaciones más jóvenes, estructuran su propio juicio y proceso cognitivo.
El equipo de investigación, liderado por el profesor Walter Quattrociocchi, llevó a cabo una serie de experimentos en los que participaron seis de los principales modelos lingüísticos actuales y grupos de evaluadores humanos, incluidos expertos. En uno de los experimentos, tanto los LLM como los humanos fueron asignados a la misma tarea: evaluar la credibilidad de cientos de sitios web. Los resultados indicaron que, aunque el juicio de los modelos parecía alinearse con el de los expertos, existían diferencias fundamentales en sus procesos. Mientras que los LLM se basan en asociaciones léxicas, los humanos aplican razonamientos críticos y analizan el contenido.
Los LLM identifican palabras clave y señales frecuentes sin leer realmente el contenido como lo haría un ser humano. Cuando generan explicaciones, no están argumentando; simplemente están extendiendo estadísticamente una instrucción dada. Este enfoque plantea interrogantes sobre la fiabilidad y validez del juicio automatizado.
En otro experimento, se identificaron sesgos políticos sistemáticos dentro de los criterios utilizados por estos modelos. Esto ocurre porque reflejan patrones dominantes presentes en los datos con los que han sido entrenados. En contextos académicos, periodísticos y digitales, ciertas posturas políticas suelen ser tratadas con mayor crítica. Los LLM aprenden este esquema y lo reproducen sin comprenderlo realmente.
Además, el estudio exploró cómo actúan estos modelos cuando funcionan como agentes, es decir, al recopilar información, seleccionar fuentes y tomar decisiones. En este contexto, se observó que mientras las personas utilizan criterios retóricos y emocionales para juzgar, los LLM dependen exclusivamente de pistas estructurales relacionadas con la reputación o ideología.
Los hallazgos subrayan cómo las plataformas de inteligencia artificial pueden influir en lo que millones consideran “verdadero”. Comprender cómo estos modelos evalúan la fiabilidad va más allá del problema de la desinformación; plantea un nuevo desafío epistemológico: la ilusión de conocimiento generada por la plausibilidad lingüística que ofrecen estos sistemas.
Referencias:
Di Marco Niccolò et al., «Patterns of linguistic simplification on social media platforms over time.» Proceedings of the National Academy of Sciences 121, no. 50 (2024): e2412105121
DOI: https://doi.org/10.1073/pnas.2412105121