IV EDICIÓN DE LOS GALARDONES DE LA SCIE Y LA FUNDACIÓN BBVA
Los Premios de Informática reconocen a investigadores que han impulsado avances en Inteligencia Artificial, Big Data y la computación de altas prestaciones
Proyectos de supercomputación y procesamiento de grandes volúmenes de datos (Big Data) que permiten simular la evolución de un cáncer o realizar predicciones climatológicas; algoritmos para mejorar la precisión de los motores de búsqueda en internet a la hora de obtener la información más relevante, y de sugerir otros contenidos que pueden interesar a cada usuario; un estudio que ha aplicado la Inteligencia Artificial al campo del audio, para que apps musicales como Spotify recomienden las canciones que más se ajustan a nuestras preferencias… Esta es solo una muestra de las contribuciones cuyos autores han sido galardonados en la IV edición de los Premios de Investigación concedidos por la Sociedad Científica Informática de España (SCIE) y la Fundación BBVA.
8 junio, 2020
Estos galardones, creados en 2017 para reconocer la “creatividad, originalidad y excelencia” de los científicos que están impulsando la investigación de vanguardia en este campo tan fundamental de nuestro tiempo, comprenden dos modalidades. La modalidad Investigadores Jóvenes Informáticos reconoce a los autores de las tesis doctorales más innovadoras y relevantes: se conceden hasta seis premios, cada uno dotado con 5.000 euros, a investigadores menores de 30 años que trabajen en España. La otra modalidad son los Premios Nacionales de Informática, que la SCIE concede desde 2005 y se incorporaron a los galardones entregados conjuntamente con la Fundación BBVA en 2018. Estos galardones reconocen a investigadores, entidades públicas y privadas que han dedicado su labor “al estudio, fortalecimiento y divulgación de la informática”, según se explica en las bases.
En esta IV edición, los galardonados en la modalidad Investigadores Jóvenes Informáticos son: Silvina Caíno-Lores, investigadora en el departamento de Ingeniería Eléctrica e Informática de la Universidad de Tennessee-Knoxville (EEUU), por sus contribuciones a la convergencia entre análisis de grandes volúmenes de datos (Big Data) y computación de altas prestaciones; Antonio Manuel Durán Rosal, profesor adjunto en el departamento de Métodos Cuantitativos de la Universidad Loyola Andalucía en Córdoba, por sus aportaciones al campo del aprendizaje automático (machine learning); Adrián Pérez Diéguez, profesor e investigador en el Grupo de Arquitectura de Ordenadores de la Universidade da Coruña e integrante del equipo de Marketing Digital en Zara.com (Inditex), por sus aportaciones a la computación de altas prestaciones que permiten procesar grandes volúmenes de datos (Big Data); Jordi Pons Puig, Senior Research Scientist en Dolby Laboratories, por su aplicación de arquitecturas de aprendizaje profundo al campo del audio y la música; Mikel Sesma Sara, profesor ayudante doctor de Ciencia de la Computación e Ingeniería Artificial en la Universidad Pública de Navarra, por sus contribuciones a la fusión de información, con importantes aplicaciones prácticas en el campo de la visión por computador; y Daniel Valcarce Silva, ingeniero de software en Google, por sus aportaciones en el campo de la recuperación de información y los sistemas de recomendación, que le han llevado a formar parte de un equipo internacional que trabaja en la mejora de asistentes personales utilizando técnicas de lenguaje natural y aprendizaje automático.
Los galardonados con los Premios Nacionales de Informática en esta edición son: Senén Barro Ameneiro, catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universidad de Santiago de Compostela y director científico de CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela), Premio José García Santesmases por sus aportaciones de gran calidad en la investigación en inteligencia artificial, así como en la transferencia del conocimiento; Ignacio Martín Llorente, catedrático de Arquitectura y Tecnología de Ordenadores en la Universidad Complutense de Madrid, Premio Aritmel por sus contribuciones científicas y de estandarización en las áreas de grid y cloud computing; y TORUSWARE (Torus Software Solutions, S. L), Premio Ramón Llull por su actividad en el ámbito de la computación de altas prestaciones y su aplicación al procesamiento de grandes volúmenes de datos (Big Data).
A continuación, presentamos un perfil sobre la trayectoria y las contribuciones de cada uno de los galardonados en ambas modalidades.
Premios Investigadores Jóvenes Informáticos
Silvina Caíno-Lores: Big Data y computación de altas prestaciones
De la combinación de dos áreas fundamentales de la informática actual, la computación de altas prestaciones y el Big Data, surge el campo al que se dedica Silvina Caíno-Lores. Por un lado, simulaciones o experimentos que necesitan máquinas con un gran rendimiento para acelerar lo máximo posible el cómputo y, por otro, grandes volúmenes de datos que hay que procesar rápidamente. “Cada vez hay mayor necesidad de interrelacionarlas y quedarse con lo mejor de cada una, porque hay nuevas áreas de investigación que empiezan a mostrar requisitos de ambos ecosistemas”, explica la investigadora.
Un buen ejemplo de aplicación podrían ser los vehículos autónomos. “Son un sistema muy complejo en el que hay que simular muchos aspectos del coche y del entorno, que luego hay que analizar para obtener resultados muy rápidos”, indica la investigadora.
Con el objetivo de poder construir y ejecutar aplicaciones híbridas entre Big Data y computación de altas prestaciones, en su tesis desarrolló una arquitectura que permite unir ambas plataformas de la forma más productiva posible. “A través de una interfaz común, vamos haciendo un puzle con lo que necesitamos de ambas”, añade.
Caíno-Lores en la actualidad es investigadora postdoctoral asociada en el departamento de Ingeniería Eléctrica e Informática de la Universidad de Tennessee-Knoxville (Estados Unidos). Allí, sus proyectos están orientados al análisis in situ de simulaciones, que consiste en solapar el análisis de datos con la simulación en sí misma para acelerar dichos procesos lo máximo posible.
Antonio Manuel Durán: ‘Machine learning’ para la predicción del clima
Antonio Manuel Durán –que desarrolló su tesis en el Grupo de Investigación AYRNA (Aprendizaje y Redes Neuronales Artificiales) de la Universidad de Córdoba, al que sigue perteneciendo– encontró en el campo de las Ciencias de la Computación la manera de combinar los dos campos que le fascinan: las matemáticas y la informática. “En ese campo vi la posibilidad de unir la base en informática que ya tenía con el refuerzo de los conocimientos matemáticos y estadísticos”, indica.
La línea de investigación de su tesis, basada en el tratamiento de series temporales de datos para su análisis, procesamiento, segmentación y predicción, aplicando algoritmos de machine learning, redes neuronales artificiales y metaheurística, permite aplicaciones como la predicción de niebla en aeropuertos o la extracción de patrones en series bursátiles. En los últimos años ha estado trabajando en el campo de la paleoclimatología, concretamente en la detección de los llamados Tipping Points, que son puntos críticos de transición en una serie que cambian el comportamiento posterior de dicha serie. “En una serie de datos se produce un evento muy pequeño que cambia drásticamente la dinámica posterior de esa serie”, explica Durán. “Posteriormente, utilizamos estos indicadores de alerta temprana para crear un modelo sencillo de predicción de los mismos”. En la actualidad compagina su actividad investigadora en el grupo AYRNA con la docencia en el Departamento de Métodos Cuantitativos en la Universidad Loyola Andalucía de Córdoba.
Adrián Pérez: Supercomputación para simular la evolución de tumores
Adrián Pérez tenía en mente estudiar matemáticas, pero una conversación casual en una feria de empleo, poco antes de hacer los exámenes de Selectividad, le dio la idea de estudiar Ingeniería Informática. Mientras estaba realizando esta carrera, fue durante una estancia Erasmus en Suecia cuando cursó una asignatura sobre arquitectura de procesadores que “fue el germen de mi tesis”, señala.
Los cuatro años de investigación para su doctorado, que realizó en la Universidade da Coruña, se centraron en la aceleración de operaciones informáticas complejas en las que se tienen que procesar grandes volúmenes de datos; y, además, conseguir que estas herramientas sean sencillas para que personas no expertas en supercomputación pueda ejecutar sus operaciones. Una de las aplicaciones de esta tecnología son las simulaciones científicas. En el sector médico se hacen simulaciones para ver cómo podría evolucionar un tumor en una persona. Al tratarse de una gran cantidad de datos, los resultados podían tardar días o semanas. Hoy en día es menos de una hora. “Todo esto se consigue, por un lado, con máquinas más potentes y, por otro, programando específicamente para estas máquinas”, señala.
Aunque mantiene su actividad docente e investigadora en el Grupo de Arquitectura de Ordenadores en la Universidade da Coruña, la versatilidad de su perfil y del contenido de su investigación le han abierto las puertas a compatibilizarla con el sector privado, y actualmente es integrante del equipo de Marketing Digital de Zara.com (Inditex).
Jordi Pons: Inteligencia Artificial para recomendar música
Las dos pasiones de Jordi Pons son la tecnología y la música. Por eso, no es de extrañar que la investigación por la que se le ha concedido este premio fusione precisamente ambos mundos. “Siempre me ha gustado la tecnología y opté por estudiar la carrera de Telecomunicaciones, pero también tengo formación clásica en piano, toco la guitarra y últimamente me he aficionado a la música electrónica”, cuenta. En su tesis doctoral, realizada en la Universidad Pompeu Fabra de Barcelona, Pons estudió cómo aplicar el método de Inteligencia Artificial conocido como deep learning (aprendizaje profundo) a la música y el audio. “Una de las posibles aplicaciones de esta tecnología”, explica, “es que aplicaciones como Spotify, Pandora o Deezer sean capaces de hacer recomendaciones mucho más precisas y ajustadas a nuestras preferencias”.
Ahora, tras completar su doctorado, Pons ha empezado a trabajar como investigador en los laboratorios de la empresa Dolby, en Barcelona, donde sigue aplicando las ideas desarrolladas en su tesis al campo del audio. “Acabamos de publicar un artículo”, señala, “donde detallamos recientes avances en el campo de la separación de fuentes, una tecnología fundamental para mejorar la inteligibilidad del habla en grabaciones, conversaciones telefónicas o videoconferencias.”
Mikel Sesma: Fusión de información aplicada a la visión por computador
En la era del Big Data y la Inteligencia Artificial, las llamadas técnicas de fusión de información, que combinan, ordenan y clasifican datos de múltiples fuentes, son herramientas fundamentales. El matemático Mikel Sesma, que en 2019 obtuvo su doctorado por la Universidad Pública de Navarra (UPNA), ha recibido el premio por sus innovadoras contribuciones a este campo. “Mi trabajo se centra en la vertiente teórica”, explica, “que trata de fusionar y resumir la información contenida en un gran volumen de datos, obteniendo un número que los represente, como por ejemplo un índice económico”.
Las aportaciones teóricas de Sesma ya han empezado a aplicarse a la visión por computador, para lograr que una máquina sea capaz de interpretar o clasificar información en imágenes o vídeos. “Mi equipo de investigación”, señala, “ha hecho pruebas con mis modelos en detección de bordes, para detectar los contornos de los objetos que hay en una imagen”.
Al mismo tiempo, su trabajo teórico se está aplicando a problemas de clasificación de datos basados en reglas. “El objetivo es encontrar relaciones entre los datos para clasificar información de una forma interpretable”, explica Sesma, que en la actualidad trabaja como profesor ayudante doctor en el Departamento de Estadística, Informática y Matemáticas de la UPNA.
Daniel Valcarce: Algoritmos que buscan y recomiendan información
Las matemáticas siempre fueron la asignatura preferida de Daniel Valcarce, y los ordenadores le fascinaron desde la primera vez que los descubrió cuando era niño. “Nunca tuve dudas, mi interés por la carrera de informática fue muy vocacional”, asegura el joven investigador premiado. Tras recibir su doctorado por la Universidade da Coruña, desde hace un año Valcarce trabaja como ingeniero de software en la sede de Google en Zúrich.
El premio reconoce sus valiosas aportaciones al desarrollo de las tecnologías que nos ayudan no solo a encontrar la información más relevante cuando usamos un motor de búsqueda en internet, sino también a recomendarnos otros contenidos que pueden interesarnos. “Mi tesis”, explica, “exploraba cómo conectar estos dos mundos, el de buscar información y el de recomendarla”. Esta investigación le ha llevado a desarrollar algoritmos concebidos para diversificar las recomendaciones a los usuarios, en vez de sugerir repetidamente los mismos contenidos, y puede aplicarse a múltiples dominios, desde los vídeos y la música hasta el comercio electrónico.
Ahora, en Google, su trabajo se centra en mejorar el funcionamiento del asistente personal de esta compañía. “Es un campo muy atractivo”, asegura, “que busca lograr una interacción mucho más natural entre máquinas y personas, no con el ratón y el teclado, sino a través del habla humana”.
Premios Nacionales de Informática
Senén Barro: Un creador de máquinas inteligentes
“Me apasiona hacer máquinas inteligentes”, dice Senén Barro, para quien inteligencia es aquí “saber resolver problemas complejos con un alto grado de autonomía y capacidad de aprendizaje”. Él se considera investigador “de tipo explorador: el que abre brecha e inicia vías nuevas”. Y en efecto Barro, catedrático de Ciencias de la Computación e Inteligencia Artificial y director científico de CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela), es pionero en áreas diversas.
En su tesis doctoral, en 1988, creó el primer sistema de monitorización de pacientes en UCIs que empleaba Inteligencia Artificial. También se ha esforzado por lograr que las máquinas entiendan las imprecisiones de la comunicación humana –“me retraso un poco”–, y eso ha permitido la creación de la herramienta Galiweather, que hace justo lo contrario: traduce la precisa pero críptica información meteorológica a frases comprensibles –“lloverá abundantemente”–.
Su Grupo de Sistemas Inteligentes, con más de 40 miembros y que este año celebra su 30 aniversario, destaca tanto por su alta productividad científica como por la transferencia de resultados al ámbito empresarial. Una muestra es la spin-off Situm Technologies, que emplea “una de las tecnologías más avanzadas del mundo”, dice Barro, en navegación en interiores, donde no llega la señal GPS. Ahora, ante la alerta sanitaria provocada por el coronavirus, “Situm está ayudando a una vuelta al trabajo más segura, por ejemplo alertando al trabajador cuando el número de personas en una sala impiden mantener la distancia de seguridad”.
Ignacio Martín Llorente: Un pionero de la computación en la ‘nube’
“La simplicidad es la máxima sofisticación”, dice Ignacio Martín Llorente citando a Leonardo da Vinci. Se refiere a que el uso intuitivo, amigable, de nuestros dispositivos es un disfraz de sencillez que oculta tecnología muy sofisticada. La videollamada familiar, los videojuegos, a lección escolar a distancia, existen gracias a complejos desarrollos fraguados a lo largo de décadas. Una muestra es la nube –the cloud–, la tecnología que permite almacenar en el ciberespacio grandes cantidades de datos y recursos de computación, hoy esencial en cualquier entorno laboral. Fue Martín Llorente, catedrático de Arquitectura y Tecnología de Ordenadores en la Universidad Complutense de Madrid, quien hace 15 años creó “los primeros métodos y algoritmos que permiten una gestión escalable y eficiente” de los grandes equipos centralizados de que depende la nube.
Por entonces este físico ya había investigado en NASA Langley, en EEUU, en computación para simular dinámica de fluidos, y coordinaba, desde 2002, el Grupo de Investigación en Arquitectura de Sistemas Distribuidos de la Universidad Complutense. Sus aportaciones en cloud computing se aplican hoy en gestores como OpenNebula, con decenas de miles de descargas en todo el mundo. Además han dado lugar a numerosos proyectos internacionales, como RESERVOIR, el primer proyecto europeo de investigación en sistemas cloud.
Martín Llorente investiga ahora en lo que viene después de la nube: la computación Edge. “Hay ya 50.000 millones de dispositivos conectados, y con el Internet de las Cosas se añadirán más, como los electrodomésticos. Muchos requieren tiempos de respuesta muy rápidos, ya no podrán depender de equipos centralizados; la computación tendrá que hacerse más cerca del usuario. Es un cambio conceptual, una descentralización de la computación en la red”. Esta investigación la realiza en colaboración con la Universidad de Harvard, en EEUU, de la que es Profesor Visitante desde 2016.
Torusware: Cómo aprovechar el potencial del ‘Big Data’
“Todas las organizaciones que recopilan información disponen de datos de diferentes fuentes: clientes, empleados, sistemas de información, procedimientos y políticas internas, dispositivos, sensores, redes sociales, etc. Pero todos esos datos no sirven para nada si no los usas”, afirma la empresa Torusware en su web. Esta tecnológica fundada en 2013 como spin-off del Grupo de Arquitectura de Computadores de la Universidade da Coruña, ayuda a sus clientes a sacar partido de los grandes volúmenes de datos a los que pueden tener acceso.
Guillermo López Taboada, director de Torusware, pone ejemplos: “Una compañía de distribución puede querer rediseñar sus rutas de reparto cada día en función del tráfico y de la meteorología. O una empresa que dé clases online puede necesitar saber si con un determinado contenido sus alumnos se distraen, o por el contrario están más atentos. Se trata de tener una visión datacéntrica, enfocada en sacar el máximo partido de los datos disponibles”.
Torusware basa su potencial en un método propio para analizar muy rápidamente grandes volúmenes de datos. Este método, protegido por patente, nace de la tesis doctoral de López Taboada. “Inicialmente vimos que tenía interés en bolsa; después nos dimos cuenta de que podríamos ofrecer análisis de grandes cantidades de datos en tiempo real para otras compañías, turismo en ciudades, gestión industrial…”, explica Taboada. La explotación del Big Data es ahora un sector en absoluto apogeo. Torusware quiere contribuir a que empresas de cada vez más sectores puedan aprovechar su potencial.
Jurado
El jurado ha estado presidido por Antonio Bahamonde, catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universidad de Oviedo, y presidente de la SCIE; e integrado por Amparo Alonso Betanzos, catedrática de Ciencias de la Computación e Inteligencia Artificial en la Universidade da Coruña, y presidenta de la Asociación Española para la Inteligencia Artificial (AEPIA); Rosa María Badía, líder del grupo Workflows and Distributed Computing del Barcelona Supercomputing Center-Centro Nacional de Supercomputación; Inmaculada García Fernández, catedrática de Arquitectura y Tecnología de Computadores en la Universidad de Málaga y presidenta de la Sociedad de Arquitectura y Tecnología de Computadores (SARTECO); Manuel Hermenegildo, director científico del IMDEA Software Institute; Juan Hernández, catedrático de Lenguajes y Sistemas Informáticos en la Universidad de Extremadura; Mario Piattini, catedrático de Lenguajes y Sistemas Informáticos en la Universidad de Castilla La Mancha; Francisco Quiles, catedrático de Arquitectura y Tecnología de Computadores de la Universidad de Castilla-La Mancha; y Alicia Troncoso, catedrática de Lenguajes y Sistemas Informáticos de la Escuela Politécnica Superior de la Universidad Pablo de Olavide.