La Universitat de les Illes Balears coordina el projecte Erasmus+ CHARLIE, que busca promover la ética en el uso de la inteligencia artificial y el aprendizaje automático para combatir los sesgos en los datos masivos. La reunión inaugural se llevará a cabo el 14 de febrero en Palma, con la participación de diversas instituciones europeas. Este proyecto destaca la importancia de una formación ética en tecnología para evitar desigualdades y fomentar un desarrollo responsable.
La Universitat de les Illes Balears (UIB) se prepara para acoger la reunión del proyecto internacional «Challenging Bias in Big Data use for AI and Machine Learning» (CHARLIE), un esfuerzo coordinado por el Institut de Recerca i Innovació Educativa (IRIE). Este evento tiene como finalidad promover enfoques éticos en el uso de la inteligencia artificial y el aprendizaje automático, abordando así los sesgos presentes en los grandes volúmenes de datos que alimentan estas tecnologías.
La jornada se llevará a cabo el 14 de febrero en un formato híbrido, permitiendo la participación tanto presencial desde el campus universitario como a través de videoconferencia. La organización está a cargo del IRIE y del Laboratori d’Aplicacions de la Intel·ligència Artificial (LAIA@UIB).
En este encuentro participarán investigadores de diversas instituciones que forman parte del consorcio del proyecto, incluyendo Helixconnect Europe (Rumanía), ISQ e-learning (Portugal), Innovation Training Center (España), la Universidad de Aarhus (Dinamarca) y la Universidad de Ciencias Aplicadas de Vaasa (Finlandia).
La jornada comenzará con una presentación a cargo de la directora del IRIE, doctora Eva Aguilar, y el director del LAIA@UIB, doctor Antoni Jaume. A continuación, Anna Arias Duart, investigadora del Barcelona Supercomputing Center, ofrecerá una ponencia titulada «¿Qué IA queremos? Sesgos, explicabilidad y límites de la inteligencia artificial».
El doctor Miquel Miró, profesor en el Departamento de Ciencias Matemáticas e Informática de la UIB, también impartirá una charla sobre «Inteligencia artificial, explicabilidad e incertidumbre: cómo responder a una pregunta que no sabemos cuál es». Finalmente, el doctor Rubén Comas, investigador principal del proyecto CHARLIE y catedrático en el Departamento de Pedagogía Aplicada y Psicología de la Educación, presentará los recursos desarrollados por esta iniciativa.
El proyecto CHARLIE representa un esfuerzo innovador para combatir los sesgos en los datos masivos utilizados por la inteligencia artificial y el aprendizaje automático. Financiado por el programa Erasmus+ de la Unión Europea, este proyecto cuenta con el apoyo del Servicio Español para la Internacionalización de la Educación (SEPIE) y es coordinado por el IRIE.
A medida que la inteligencia artificial se integra cada vez más en nuestra vida cotidiana —desde el reconocimiento facial hasta las decisiones publicitarias en redes sociales— surge una preocupación sobre su precisión. Esto se debe a que estos sistemas son construidos a partir de datos que pueden estar sesgados debido a prejuicios humanos inconscientes. Estos sesgos pueden tener consecuencias negativas significativas.
Para prevenir que la inteligencia artificial perpetúe desigualdades existentes, es crucial adoptar un enfoque centrado en las personas. La educación juega un papel fundamental al formar profesionales capaces de enfrentar los desafíos éticos asociados con esta tecnología. En este sentido, CHARLIE trabaja para fomentar un uso más justo y equitativo de la inteligencia artificial mediante currículos innovadores que promuevan un desarrollo tecnológico ético y responsable.