Un equipo de investigadores de la Unidad de Gráficos y Visión por Ordenador e IA (UGiVIA) y del Laboratorio de Aplicaciones de Inteligencia Artificial de la Universidad de las Islas Baleares (LAIA@UIB) ha presentado un estudio innovador que aborda las métricas de fidelidad para la Inteligencia Artificial Explicable (XAI). Este trabajo resalta la necesidad de validar las métricas que se utilizan para evaluar la precisión de las explicaciones generadas por los modelos de inteligencia artificial.
La fidelidad se refiere a cuán bien las explicaciones proporcionadas por un sistema de inteligencia artificial reflejan las causas reales que el modelo ha aprendido. En este sentido, una métrica de fidelidad mide si las explicaciones son veraces y representan correctamente el funcionamiento interno del modelo. Por ejemplo, si un modelo realiza una predicción basada en ciertos factores, una explicación fiel debería mostrar esos factores como la causa exacta de dicha predicción.
Avalúo preciso de las explicaciones
Las métricas de fidelidad son fundamentales ya que permiten a investigadores y usuarios confiar en las explicaciones ofrecidas por la inteligencia artificial, asegurando que estas representen con precisión lo que el modelo ha aprendido. La investigación, publicada en la revista Information Processing & Management, destaca la falta de una evaluación objetiva entre la explicación y la causa real aprendida por el modelo.
Los investigadores han desarrollado una metodología innovadora que utiliza modelos transparentes para verificar estas métricas, permitiendo obtener explicaciones con una fidelidad perfecta. Esta propuesta establece un primer punto de referencia objetivo para dichas métricas, facilitando así la comparación con propuestas existentes y superando los métodos actuales.
Resultados del estudio y recomendaciones
Los resultados indican que las métricas actuales no son suficientemente fiables para su uso en escenarios reales. Por ello, los investigadores sugieren el desarrollo de nuevas métricas y proponen su metodología como un estándar dentro de la comunidad científica para abordar estas limitaciones.
El equipo investigador está compuesto por los doctores Miquel Miró Nicolau, Antoni Jaume Capó y Gabriel Moyà Alcover, todos miembros destacados del UGiVIA y LAIA@UIB. Este estudio se inscribe dentro de proyectos financiados por el Ministerio de Ciencia e Innovación, así como otras agencias estatales.
Referencia bibliográfica:
Miró-Nicolau, M., Jaume-i-Capó, A., & Moyà-Alcover, G. (2025). A comprehensive study on fidelity metrics for XAI. Information Processing & Management, 62(1), 103900.
https://doi.org/10.1016/j.ipm.2024.103900
Investigaciones relacionadas