INVESTIGADOR PRINCIPAL
EQUIPO DE INVESTIGACIÓN
Alfredo Burrieza Muñiz (Universidad de Málaga); Pedro Cabalar Fernández (Universidade da Coruña); Claudia Fernández Fernández (Universidad de Málaga); Andreas Herzig (CNRS, Institut de Recherche en Informatique de Toulouse); Brais Muñiz Castro (Universidade da Coruña); Concepción Vidal Martín (Universidade da Coruña); Nicolás Miguel Madrid Labrador (Universidad de Málaga); Torsten Schaub (University of Potsdam); Tobias Geibinger (Vienna University of Technology (TU Wien)).
DESCRIPCIÓN
La inteligencia artificial ya juega un papel protagonista en finanzas, robótica o medios de transporte gracias a su gran capacidad de alcanzar conclusiones muy fiables en tiempo récord. Pero tiene un problema importante de transparencia: no siempre es capaz de explicar cómo toma sus decisiones. Las computaciones que realiza son tan complejas que es prácticamente imposible rastrear los pasos lógicos que se han seguido de forma que se obtenga una justificación adecuada. Es más, los propios sistemas de razonamiento que hay detrás de las computaciones varían de una aplicación a otra, y en ocasiones son incompatibles entre sí. Pero, para conseguir una inteligencia artificial capaz de rendirnos cuentas, es crucial que se base sobre principios lógicos que los humanos podamos comprender y aceptar. Para lograrlo, este proyecto estudiará los sistemas lógicos que se utilizan actualmente en aplicaciones de inteligencia artificial y analizará su capacidad para proporcionar explicaciones fiables sobre las decisiones que toman.