INVESTIGADOR PRINCIPAL
EQUIPO DE INVESTIGACIÓN
David Gómez-Ullate Oteiza (Universidad de Cadiz); Salvador Perelló Oliver (Universidad Rey Juan Carlos); Jared Lee Aurentz (ICMAT – Universidad Autónoma de Madrid); Alberto Torres Barrán (ICMAT – CSIC); Alex Kosgogadan (ICMAT – CSIC); David Gordo Gómez (ICMAT – CSIC); David Banks (Duke University); Refik Soyer (The George Washington University); Fabrizio Ruggeri (Italian National Research Council); Tahir Ekin (McCoy College of Business, Texas State University); Roi Naveiro Flores (ICMAT – CSIC); Victor Gallego Alcalá (ICMAT – CSIC); Bruno Flores Barrio (ICMAT – CSIC); Melike Baykal-Gürsoy (Rutgers, The State University of New Jersey); Verma Rakesh (University of Houston); y Huizhen Zhang (University of Shanghai for Science and Technology).
ENTIDAD ASOCIADA
DESCRIPCIÓN
El aprendizaje de máquina y el Big Data están propiciando la aparición de nuevos paradigmas científicos y redefiniendo nuestra sociedad en formas desconocidas: numerosos procesos y decisiones críticos para el desarrollo social están siendo automatizados con algoritmos, lo que abre la posibilidad a que reciban ataques maliciosos. El aprendizaje de máquina adversario desarrolla algoritmos robustos y fiables frente a tales ataques. Sin embargo, está dominado por el paradigma de la teoría de juegos, que requiere hipótesis difícilmente sostenibles en el contexto de seguridad típico en este campo. En el proyecto se persigue una nueva aproximación a esta disciplina basada en las propuestas más realistas del análisis de riesgos adversarios, para proporcionar nuevos conceptos y métodos que conduzcan a sistemas de inteligencia artificial más seguros. Como aplicaciones se consideran la detección de software malicioso, la protección de algoritmos de conducción en vehículos autónomos y el tratamiento de fake news.