Crean manual sobre IA para su uso con transparencia en salud, finanzas o temas legales

Un equipo internacional de expertos ha desarrollado un manual de inteligencia artificial (IA) orientado a mejorar la transparencia y la confianza en esta tecnología, con especial enfoque en áreas sensibles como la salud, las finanzas y el ámbito legal.

El proyecto, liderado por la Universidad de Granada (UGR) en España, propone una metodología para verificar y certificar los resultados de modelos de IA complejos, facilitando la creación de sistemas no solo eficaces, sino también comprensibles y éticamente sólidos.

En un contexto donde el uso de sistemas de decisión automática, como las Redes Neuronales Profundas (DNNs), ha crecido exponencialmente, la naturaleza opaca de estos modelos plantea desafíos en cuanto a interpretación y riesgos éticos. Para abordar estas problemáticas, el equipo coordinado por la UGR ha lanzado un manual exhaustivo sobre inteligencia artificial explicable (XAI).

El manual se perfila como una guía clave para profesionales en informática e inteligencia artificial interesados en comprender y explicar los resultados de modelos de aprendizaje automático. Cada capítulo presenta técnicas de IA aplicadas a escenarios cotidianos, incluyendo ejemplos prácticos y cuadernos de trabajo, así como un apartado que orienta sobre los requisitos y ventajas de cada técnica.

La profesora Natalia Díaz Rodríguez, del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR y parte del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI), encabeza esta iniciativa. "Es crucial ser conscientes de las capacidades y limitaciones de los modelos avanzados de IA, así como de las técnicas de explicabilidad que se usan para validar y justificar sus resultados. A veces, estas explicaciones no son satisfactorias ni fácilmente comprobables", explicó Díaz.

Este trabajo, fruto de la estancia de la profesora Díaz en el Instituto Politécnico de París, involucra a expertos de diversas instituciones en el Reino Unido, Francia, Austria y otros países, consolidando un esfuerzo internacional para fomentar un desarrollo de la IA más transparente y responsable.