Investigadores de la UJA impulsan un modelo de IA más justo y transparente
La iniciativa, enmarcada en el proyecto europeo Fidelity, busca influir positivamente en plataformas de comercio y recomendadores de contenidos multimedia
Investigadores de la Universidad de Jaén han desarrollado sistemas de Inteligencia Artificial (IA) capaces de ofrecer recomendaciones más justas, transparentes y alineadas con los intereses reales de las personas, gracias al proyecto europeo Fidelity, una prestigiosa beca de investigación financiada por la Unión Europea. La iniciativa, liderada por el investigador Raciel Yera bajo la supervisión del catedrático Luis Martínez, sitúa a la UJA en la vanguardia internacional de la investigación en IA responsable y sistemas de recomendación en grupo.
El proyecto Fidelity aborda uno de los grandes desafíos actuales de la IA: cómo combinar equidad, explicabilidad y confianza en sistemas que influyen directamente en decisiones cotidianas, desde plataformas de comercio electrónico y turismo, hasta recomendaciones de noticias, contenidos multimedia o servicios digitales.
Frente a modelos opacos, el proyecto ha desarrollado nuevos algoritmos y herramientas capaces no solo de generar recomendaciones de alta calidad, sino también de explicar por qué son adecuadas y cómo garantizan un tratamiento equilibrado para usuarios y proveedores.
Uno de los principales avances del proyecto ha sido demostrar que la explicabilidad y la equidad algorítmica no deben entenderse como elementos separados, sino como dimensiones complementarias para construir sistemas verdaderamente confiables. En este sentido, los investigadores han validado sus propuestas mediante experimentos offline, escenarios reales y estudios con usuarios, analizando cómo las personas perciben la transparencia, la satisfacción grupal y la equidad de las recomendaciones.
La relevancia internacional de estos resultados ha quedado respaldada por su difusión en foros científicos de máximo prestigio, entre ellos ACM UMAP, referencia mundial en modelado de usuario y personalización, donde los estudios derivados del proyecto han servido para validar empíricamente el impacto de las nuevas estrategias explicables y justas en recomendación en grupo. A ello se suman contribuciones recientes en congresos y revistas internacionales sobre explicación, equidad de proveedores y plataformas de apoyo a recomendaciones en grupo.
Más allá de la aportación científica, Fidelity ofrece una hoja de ruta práctica para que desarrolladores y empresas tecnológicas integren principios de IA responsable en productos reales, favoreciendo ecosistemas digitales donde usuarios, grupos y pequeños proveedores reciban recomendaciones más equilibradas, comprensibles y confiables.
El proyecto, financiado por la Unión Europea, consolida la posición de la Universidad de Jaén y del grupo SINBAD 2, al que pertenecen los investigadores, como referentes internacionales en sistemas de recomendación, inteligencia artificial explicable y fairness-aware AI, contribuyendo al desarrollo de una tecnología centrada en las personas y socialmente responsable.