Primera edición, febrero 2024
© Los autores, 2024
© Fundación BBVA, 2024
Plaza de San Nicolás, 4. 48005 Bilbao
www.fbbva.es
Al publicar el presente informe, la Fundación BBVA no asume responsabilidad alguna sobre su contenido ni sobre la inclusión en el mismo de documentos o información complementaria facilitada por los autores.
Edición y producción: Spanda editorial
ISBN: 978-84-92937-99-8
Alejandro Martín García es profesor contratado doctor en la Universidad Politécnica de Madrid y doctor por la Universidad Autónoma de Madrid. Sus principales intereses de investigación son el aprendizaje profundo, la ciberseguridad y el procesamiento del lenguaje natural. Ha sido investigador visitante en la Universidad de Kent y en la Universidad de Córdoba. Además, ha participado en un importante número de congresos internacionales como revisor y organizador, como revisor y associate editor en revistas internacionales, y en un gran número de proyectos de investigación. Ha sido el investigador principal del Proyecto CIVIC, enfocado en la lucha contra la desinformación, así como de otros proyectos nacionales e internacionales sobre la misma temática.
Ángel Panizo Lledot es profesor ayudante doctor en la Escuela de Ingeniería de Sistemas Informáticos de la Universidad Politécnica de Madrid (UPM). Tiene una licenciatura en Ciencias de la Computación por la Universidad Complutense de Madrid, un máster en Inteligencia Artificial por la Universidad Politécnica de Madrid y un doctorado en Ciencias de la Computación por la Universidad Autónoma de Madrid. En la actualidad está involucrado con el grupo de investigación AIDA en ETSISI-UPM. Sus principales intereses de investigación están relacionados con el machine learning; el clustering; los algoritmos basados en grafos, especialmente en grafos dinámicos que evolucionan con el tiempo; el análisis de sociales y los algoritmos de optimización bioinspirados.
Sergio D’Antonio Maceiras es profesor contratado doctor en la Universidad Politécnica de Madrid. Licenciado en Sociología, máster en Análisis Sociocultural del Conocimiento y de la Comunicación, y doctor en Filosofía por la Universidad Complutense de Madrid. A lo largo de la última década su investigación se ha centrado en el análisis del discurso en redes sociales. En la actualidad es miembro del grupo de investigación Applied Intelligence and Data Analysis (AIDA) y sus investigaciones se basan en el uso de medios y métodos computacionales para el análisis social, el uso de la inteligencia artificial en medios y redes sociales para la desinformación, la polarización política y la misoginia, entre otros temas.
Javier Huertas Tato es profesor ayudante doctor en la Universidad Politécnica de Madrid. Sus intereses de investigación son el procesamiento del lenguaje natural, los sistemas multimodales, las redes neuronales y el aprendizaje profundo. Fue doctorado en Ciencia y Tecnología Informática en la Universidad Carlos III de Madrid y ha colaborado en estancias internacionales con la Universidad de Lisboa y el Information Technologies Institute de Tesalónica. Actualmente pertenece al grupo de investigación Applied Intelligence and Data Analysis (AIDA) de la UPM, desarrollando nuevos modelos computacionales para combatir la desinformación online, especialmente mediante la comprensión del texto, sus fuentes y sus autores.
Guillermo Villar Rodríguez es periodista de datos y visualización en Relevo y estudiante de doctorado en Computación en la Universidad Politécnica de Madrid con el grupo AIDA. Graduado en Periodismo (premio extraordinario) y Comunicación Audiovisual y con máster propio en periodismo de datos, acumuló experiencia en CMM Media y después en el LaB RTVE, en El País y en contenidos de branded content, entre otros. Su posterior máster oficial en Data Science & Society en Países Bajos lo llevó a la intersección entre la inteligencia artificial y el periodismo a través de los datos, y le permitió después trabajar como investigador en el Proyecto CIVIC en la Universidad Politécnica de Madrid con el fin de luchar contra la desinformación, y colaborar en otros proyectos y publicaciones en esta disciplina.
Áurea Anguera de Sojo Hernández es profesora contratada doctora en la Universidad Politécnica de Madrid y doctora en Ciencias de la Computación e Inteligencia Artificial por la Universidade da Coruña. Licenciada en Derecho y Ciencias Empresariales, sus principales intereses de investigación incluyen la minería de datos, la inteligencia de negocios, la gestión del conocimiento y la protección de datos y la privacidad en línea. Desde hace dos años es miembro del grupo de investigación Applied Intelligence and Data Analysis (AIDA) y centra sus investigaciones en el uso de medios y métodos computacionales para el análisis social, así como el uso de la inteligencia artificial en medios y redes sociales, y cómo estos métodos afectan a la privacidad.
David Camacho Fernández es catedrático en Ingeniería Informática e Inteligencia Artificial en la Universidad Politécnica de Madrid (UPM), y es el responsable del grupo de investigación AIDA, por las siglas en inglés de Applied Intelligence and Data Analysis de la UPM. Sus intereses de investigación incluyen machine learning (clustering/deep learning), inteligencia computacional (computación evolutiva, inteligencia de enjambre) y análisis de redes sociales. Ha participado en, o liderado, más de sesenta proyectos de investigación (nacionales y europeos: H2020, DG Justicia, ISFP y Erasmus +) y de transferencia a la industria, relacionados con el diseño y aplicación de métodos de inteligencia artificial para la minería de datos y la optimización de problemas emergentes en escenarios como la industria del carbón y del acero, la aeronáutica, la ingeniería aeroespacial, la desinformación, el ciberdelito y la ciberinteligencia, las aplicaciones de la inteligencia artificial en redes sociales o los videojuegos, entre otros.
En primer lugar, me gustaría agradecer a la Fundación BBVA el apoyo recibido. Gracias a la financiación del proyecto «Caracterización inteligente de la veracidad de la información asociada a la covid-19» (Proyecto CIVIC) en el marco de las Ayudas Fundación BBVA a Equipos de Investigación Científica SARS-CoV-2 y COVID-19 en el área de Economía y Ciencias Sociales 2020, los miembros del grupo de investigación AIDA (Applied Intelligence and Data Analysis) pudimos embarcarnos en una nueva y apasionante aventura: aplicar la inteligencia artificial en la lucha contra la desinformación. En aquel momento nos encontrábamos en un escenario muy distinto al de ahora. La pandemia de la covid-19 seguía estando muy presente en nuestras vidas y dominaba las conversaciones que teníamos con nuestros allegados. En la actualidad, la situación es muy diferente en lo que respecta a la pandemia, pero no lo es en lo que se refiere a la desinformación. La financiación recibida nos ha permitido empezar a desarrollar nuevos modelos y arquitecturas basadas en modelos profundos de inteligencia artificial para detectar nuevas piezas de desinformación y combatir su diseminación, aportando un gran avance científico en este terreno.
El Proyecto CIVIC no hubiera sido posible sin el magnífico trabajo de un gran número de investigadores del grupo AIDA, de la Universidad Politécnica de Madrid. Debo agradecer a Guillermo Villar, Javier Huertas, Ángel Panizo, Sergio D’Antonio, Javier Torregrosa, Víctor Rodríguez y David Camacho todo el trabajo realizado y su inestimable ayuda, sin la cual no hubiera sido posible conseguir los resultados que el lector podrá observar en este informe. La concesión de este proyecto en 2020 supuso un gran impulso para el grupo AIDA, y dio comienzo a una línea de trabajo que nos ha situado en una posición destacada a nivel nacional e internacional en la aplicación de técnicas de IA para luchar contra la desinformación.
Alejandro Martín García
Director
Durante los últimos años hemos visto cómo una parte importante de la población de los Estados Unidos creyó que la policía del Capitolio había dado el visto bueno a la entrada de los manifestantes el 6 de enero de 2021.1 O cómo, en España y otros países, muchas personas hicieron acopio de productos con vitamina C por su supuesto poder para curar la covid-19. El término fake news ha pasado a formar parte de nuestro lenguaje cotidiano. Diariamente podemos observar cómo se desmienten noticias falsas y cómo nacen otras nuevas. Como consecuencia de este problema, el mundo del periodismo y la comunicación ha tenido que adaptarse para hacer frente a la gran ola de desinformación que circula por redes sociales y medios de comunicación. Hoy existe una gran cantidad de entidades de fact-checking encargadas de verificar piezas de información.
En la actualidad, debido al desarrollo de la inteligencia artificial, hemos entrado en una nueva etapa en lo que a la distribución de la desinformación se refiere. Gracias a los avances, es posible crear una imagen completamente realista que ilustre una falsedad. Si una imagen vale más que mil palabras, una noticia falsa apoyada con una imagen se convierte en una noticia más creíble. En este informe queremos analizar el papel de la inteligencia artificial en la desinformación, observando los riesgos a los que nos enfrentamos, pero también analizando la necesidad de confiar en la IA para luchar contra las nuevas formas de desinformación.
Over the past few years, we have seen how a significant portion of the United States population believed that the Capitol Police gave the go-ahead for protesters to enter the Capitol on January 6, 2021. Or how many people stocked up on vitamin C products for their supposed power to cure COVID-19 in Spain and other countries. The term fake news has become part of our everyday language. Every day we can observe how false news are disproved and how new ones are born. Consequently, the world of journalism and communication has had to adapt to face the great wave of disinformation that circulates through social networks and the media. There are now many fact-checking entities in charge of verifying pieces of information.
Nowadays, due to the development of Artificial Intelligence, we have entered a new stage in the distribution of disinformation. Thanks to advances, it is possible to create a completely realistic image that illustrates a falsehood. If a picture is worth a thousand words, a fake news story supported by a picture becomes a more credible news story. In this report we seek to analyze the role of Artificial Intelligence in disinformation, looking at the risks we face, but also analyzing the need to rely on AI to fight against new forms of disinformation.
La guerra de Rusia-Ucrania, la covid-19, las elecciones nacionales en un país, el cambio climático o los eventos relacionados con minorías como el colectivo LGTBIQ+ aparentemente no tienen nada en común, aunque comparten mucho: todos estos acontecimientos han estado en las agendas de los medios periodísticos del país, pero también en el ojo del huracán de la creación de bulos y desinformaciones.
Entender el problema de la información falsa en España es entender también su caldo de cultivo. Según el Reuters Institute Digital News Report 2023 (Nic Newman et al. 2023), el interés por las noticias en este país registra una de las bajadas más grandes respecto a otros países: se ha pasado de un 85 % de personas que indicaban tener un interés alto o muy alto por las noticias en 2015 al 51 % en 2023, es decir, 34 puntos porcentuales menos. Los datos de confianza de los lectores en los medios de comunicación tampoco ayudan: la desconfianza en las noticias llega a su récord (40 %) en estos nueve años de encuesta, sobre todo entre los menores de 45 años.
Se da así la tormenta perfecta: la década en la que los españoles manifiestan menos interés y confianza en los medios es también la década en la que la desinformación ha hecho acto de presencia de forma masiva a partir de las redes sociales existentes y nuevas. En contraposición, también podemos considerar esta última década como la década de los fact-checkers, con la creación y el crecimiento de las organizaciones de verificación para luchar contra esta lacra. Dichas organizaciones escudriñan el contenido que se difunde por las redes para desmentir la desinformación, corregir las imprecisiones y educar a la ciudadanía para no caer en falsedades.
¿Pero hasta qué punto pueden abarcar los fact-checkers la lucha contra la desinformación? Esta última década no solo ha sido la de la desconfianza y el desinterés, sino también la de sucesos históricos como la irrupción del coronavirus o la invasión rusa de Ucrania. La ola de desinformación ha alcanzado unos niveles sin precedentes y cada vez se necesitan más recursos para combatirla. Es aquí donde otro aliado con gran protagonismo en estos últimos años puede ayudar: la inteligencia artificial. Mientras que luchar contra la desinformación de manera manual, analizando cada pieza de información una a una, se ha convertido en una tarea inabarcable, la IA proporciona los instrumentos necesarios para que, no solo las entidades de fact-checking sino también la sociedad en general, puedan defenderse y determinar si se encuentran ante información fiable o no.
No obstante, la IA también tiene una cara negativa y no hay que dejar de considerar el uso malicioso de la IA por los propios generadores de desinformación. Con los últimos avances en este campo, es posible construir desde textos con argumentos muy convincentes, pero al mismo tiempo sin una base científica, que hacen que muchos lectores se replanteen algunas ideas, hasta imágenes increíblemente realistas que nos pueden hacer creer en hechos falsos. Contrarrestar este uso malicioso de la IA mientras se potencia el uso beneficioso de la misma es una tarea que cobra cada vez más importancia.
En español utilizamos el término desinformación para referirnos a la información falsa. Sin embargo, el concepto es muy amplio y no permite diferenciar los distintos tipos de información falsa que agrupa (Fallis 2015). El inglés emplea tres términos diferentes que permiten especificar mejor en qué tipo de desinformación nos enfocamos: misinformation, disinformation y malinformation (Ireton y Posetti 2018). La figura 1 muestra cómo la diferencia entre estos términos radica en el tipo de falsedad y en el tipo de intencionalidad con la que se distribuye esa información. Así, cuando hay una intencionalidad nociva, hablaremos de disinformation o malinformation (Fallis 2014a). La diferencia entre ambos términos radica en que el primero refleja información falsa generada deliberadamente con el fin de generar perjuicio, mientras que el segundo, malinformation, se refiere a información que, aun siendo verdadera, se distribuye de una manera sesgada o fuera de contexto con un propósito malicioso. Por último, cuando no hay intencionalidad, se habla de misinformation o información errónea. En este caso la desinformación no se distribuye con una intención deliberada de causar daño, sino que el emisor la emite presumiendo su veracidad.
Como apuntan algunos investigadores (Salaverría et al. 2020a), a esta terminología podríamos añadir también la expresión bulo, que los autores definen como «todo contenido intencionadamente falso y de apariencia verdadera, concebido con el fin de engañar a la ciudadanía, y difundido públicamente por cualquier plataforma o medio de comunicación social». Como se puede apreciar, con este término ya se hace énfasis en su uso en medios de comunicación social como las redes sociales.
A lo largo de este informe utilizamos desinformación como término genérico para referirnos a todas estas formas de desinformación. No obstante, más allá de la intencionalidad o el grado de falsedad de una afirmación, la desinformación abarca un problema de gran envergadura y amplitud. Así, la desinformación comprende desde imágenes manipuladas, documentos falsificados e historias falsas hasta entradas de Wikipedia alteradas o propaganda gubernamental (Fallis 2015).
En la actualidad, resulta complicado desligar el fenómeno de la desinformación de las nuevas tecnologías, ya que estas en gran medida han sido las principales causantes de su crecimiento (Fallis 2014b). Así, la facilidad con la que se altera una entrada en Wikipedia o se publica un post en una red social hacen tremendamente sencillo diseminar información falsa. Además, las particularidades y el funcionamiento de cada plataforma nos sitúan ante problemas distintos. Por ejemplo, redes sociales como Facebook o Twitter tienen la capacidad de distribuir desinformación a un gran número de personas de una manera muy rápida. No obstante, también es fácil analizar la información que circula por ellas, especialmente porque se suele transmitir a través de cuentas públicas. Por el contrario, en redes de mensajería instantánea como WhatsApp o Telegram, la desinformación se propaga más despacio y, por lo general, llega a menos gente (generalmente a los contactos del emisor) pero, por otro lado, es muy difícil de detectar debido a que se realiza en grupos o conversaciones privadas.
Un problema añadido a la dificultad de conocer la cantidad de desinformación que circula a través de los medios sociales es su importancia. Nos encontramos en un ecosistema mediático híbrido (Chadwick 2017), en el que los medios clásicos de comunicación se hacen eco de lo que se difunde en las redes sociales. Si bien continúan teniendo un papel destacable, los medios de comunicación masiva clásicos como la televisión en abierto o las radios han ido perdiendo su hegemonía. Las personas nos informamos cada vez más a través de redes sociales o aplicaciones de mensajería instantánea como Telegram o WhatsApp. Lo que ha provocado que en los últimos años se haya aprovechado este cambio para realizar campañas de desinformación cada vez más masivas y con un alcance cada vez mayor.
El cambio de paradigma en la forma de consumir noticias también ha provocado que estemos más expuestos que nunca a un bombardeo de información constante. Esta sobreabundancia de información, que en ocasiones se ha denominado infoxicación (Niño González et al. 2017), produce efectos adversos en las personas (Gomez Rodriguez, Gummadi y Schoelkopf 2014). Vivir en la era de la información, en la que se genera y se comparte una cantidad masiva de contenido, puede abrumar a las personas debilitando su capacidad de filtrar, procesar y comprender de manera efectiva los datos que se les presentan. La infoxicación crea un caldo de cultivo perfecto para la proliferación de la desinformación, generando una sospecha sistemática sobre la veracidad de la información que recibimos y produciendo efectos negativos sobre nuestra confianza en las instituciones que conforman las democracias occidentales. Ejemplos de ello se han observado en eventos como el caos del Brexit (Bastos y Mercea 2019), la pandemia de la covid-19 (Liu et al. 2021), o actualmente con la guerra entre Rusia y Ucrania (Mejias y Vokuev 2017).
La comunicación y la formación de opinión en nuestras sociedades no pueden comprenderse sin la interacción que tenemos con una miríada de redes y medios sociales. La desinformación en redes sociales se convierte así en un asunto realmente preocupante. Fundamentalmente porque, además de consultar internet para informarnos, el uso ubicuo que hacemos de las redes sociales ha fomentado nuevas formas de difundir todo tipo de desinformación a gran escala (Shu et al. 2020a). Si bien se trata de un fenómeno más complejo en el que intervienen otros factores (Rodríguez Pérez 2019), a lo largo de la última década se ha producido un aumento de la propagación de diversas teorías de conspiraciones, desinformación científica y narrativas distorsionadas en una amplia gama de ámbitos que afectan de manera muy sensible y muy negativa a nuestras sociedades. Entre los de mayor impacto podrían mencionarse brevemente (Fetzer 2004) los siguientes:
El impacto significativo en áreas tan importantes como la salud pública, la negación de nuestra responsabilidad con el cambio climático y la devastación de cada vez más ecosistemas, la influencia masiva en la formación de opiniones políticas falsas, la difusión de información falsa o tergiversada sobre temas como la violencia de género o las minorías o grupos en riesgo de exclusión es una cuestión que atenta contra los pilares de las sociedades democráticas. Además, estamos ante un problema que no deja de aumentar no solo horizontalmente, en tanto que cada vez se expande a un número mayor de ámbitos; sino también verticalmente, porque el número de personas que estamos expuestas a la desinformación es cada vez mayor. Abordar este problema requiere un enfoque multifacético y multidisciplinar. Es imprescindible una sólida educación en alfabetización mediática (Sádaba-Chalezquer y Salaverría-Aliaga 2023); también la promoción de la investigación basada en evidencias y la regulación efectiva de las plataformas de redes sociales para combatir la difusión de información falsa (Saurwein y Spencer-Smith 2020).
No obstante, debido a las características intrínsecas que presenta la desinformación en la actualidad (su velocidad y ubicuidad, así como la multiplicidad de medios a través de los cuales se difunde), es imprescindible la creación y el desarrollo de nuevas tecnologías punteras y disruptivas que permitan detectar, contrarrestar y combatir este fenómeno. En este punto, surgen preguntas clave: ¿Es la inteligencia artificial una solución o un posible riesgo para este fenómeno? ¿Es posible utilizarla como herramienta para combatir la desinformación de manera efectiva?, ¿o más bien será la herramienta empleada para sembrar de desinformación nuestras sociedades y generar el caos? Estas y otras posibles custiones serán estudiadas a lo largo de este informe, donde presentaremos una herramienta diseñada e implementada para combatir y contrarrestar de manera eficaz la desinformación mediante inteligencia artificial.
Con la intención de responder adecuadamente a estas preguntas y mostrar la herramienta desarrollada para la detección de la desinformación, en primer lugar, en el capítulo 1, explicamos las diferentes dinámicas de propagación que tienen los mensajes y la importancia que tiene este análisis para poder detectar mensajes que persiguen desinformar a través de sus cadenas de difusión. En el capítulo 2, se analizará el papel que tiene la inteligencia artificial en la generación de desinformación. Adelantamos que se trata de un rol multifacético, porque los grandes avances de los últimos cinco años no solo permiten generar automáticamente textos producidos por alguna IA de forma masiva y prácticamente indetectable, también es posible producir imágenes y audios con una calidad sin precedentes, manipulando así estos tres modos de comunicación. En el capítulo 3 presentamos las distintas partes que componen la arquitectura de FacTeR-Check, la herramienta implementada a lo largo del Proyecto CIVIC. Tomando en cuenta todo lo desarrollado previamente, FacTeR-Check permite detectar y contrarrestar la desinformación mediante el uso de distintas herramientas de inteligencia artificial. En primer lugar, se describen los desarrollos en términos de similitud semántica y su importancia para detectar posibles bulos o información falsa; a continuación, se muestra cómo la inferencia del lenguaje natural es una herramienta crucial para poder complementar la similitud semántica en la detección de la desinformación. A lo largo de los siguientes apartados del capítulo se describe cómo FacTeR-Check se ha desarrollado para la monitorización de la desinformación en redes sociales. El apartado último se centra en un ejemplo donde todas las técnicas desarrolladas se despliegan para la detección eficaz de los bulos. Actualmente, cuando se trabaja en este tema, es ineludible ofrecer unas líneas que planteen, desde nuestro punto de vista, cuál es el futuro de la desinformación y su relación con los desarrollos de inteligencia artificial: el capítulo 4 cumple esta función. En este último capítulo, nos centramos específicamente en dos temas críticos para el futuro desarrollo de la inteligencia artificial como arma para combatir la desinformación: el desarrollo de herramientas cuyos resultados seamos capaces de explicar, y el desafío que impone lo que se ha venido a llamar inteligencia artificial general.
El proceso de propagación de la información dentro de una red social es un fenómeno que se produce de manera natural. Cuando el flujo funciona de manera correcta, las cuentas se ven expuestas a contenido que se ajusta a sus intereses y preferencias personales. Por otro lado, también existen flujos de información anómalos que son creados por agentes maliciosos que abusan del sistema, como trolls (cuentas que solo buscan crear conflicto), bots (cuentas completamente automatizadas), cyborgs (cuentas parcialmente automatizadas) o cuentas falsas (cuentas que se hacen pasar por personas que no son, por ejemplo, autoridades o políticos). Estos agentes malintencionados manipulan el flujo de (des)información en las redes sociales para difundir desinformación, propaganda y noticias falsas. A menudo, tales agentes tienen una agenda política o ideológica, y su objetivo es influir sobre la opinión pública y manipular la información que se comparte en línea. Sin embargo, detectar estos agentes maliciosos y sus campañas no es tan sencillo como limitarse a encontrar cuentas bots o cyborgs. A diferencia de lo que se cree comúnmente, los estudios muestran que no existen diferencias significativas entre la cantidad de noticias falsas que comparten las cuentas bots comparadas con las cuentas humanas (Vosoughi, Roy y Aral 2018). En consecuencia, diferenciar si una campaña en redes sociales se debe a un movimiento de base natural o, por el contrario, a una campaña de astroturfing o manipulación de redes sociales (Zhang, Carpenter y Ko 2013) es extremadamente complejo.
Para poder detectar los flujos anómalos de información, es necesario estudiar qué patrones sigue la desinformación a la hora de difundirse por las redes y el discurso público, de esta manera podremos conocer los mecanismos que provocan dicha propagación y atajarlos como sea pertinente. Se ha comprobado que la forma en la que se propaga la información falsa y la verídica muestran diferencias significativas. Por ejemplo, de acuerdo con los experimentos de Vosoughi, Roy y Aral (2018), las noticias falsas se difunden más fácilmente y más rápido que las verdaderas. En dicho estudio, los autores concluyen que el 1 % de las noticias falsas que más se difundieron llegaron a entre 1.000 y 100.000 personas, mientras que el 1 % de las verdaderas que más se difundieron rara vez llegaron a más de 1.000 personas. Gracias a estos patrones tan diferentes es posible utilizar las trazas que deja la información al propagarse por las redes para diferenciar la información verídica de la información falsa, lo que ha llevado a varios investigadores a aprovechar estos patrones de difusión tan distintos entre noticias falsas y verdaderas para desarrollar filtros de detección rápida de noticias falsas (Jin et al. 2013; Kwon et al. 2013; Liu y Wu 2018a).
Según el estado de la cuestión, podemos ver que el área que estudia la propagación de la información en las redes ha bebido mucho del área que estudia brotes epidémicos. En este contexto, se puede establecer una analogía entre la propagación de la información, ya sea verídica o no, en redes sociales y la propagación de un virus o enfermedad en una población. En el ámbito físico, la interacción entre dos personas puede conllevar un cierto riesgo de contagio en caso de que una de ellas sea portadora de una enfermedad. De manera análoga, en el contexto de las redes sociales, la interacción entre dos cuentas puede conllevar cierto riesgo de contagio de información de una cuenta a otra en caso de que una de ellas sea portadora de dicha información. Aun contando con modelos matemáticos poderosos traídos del ámbito de las epidemias, estudiar los patrones de difusión de la desinformación no deja de ser complejo. La desinformación se distribuye a través de diversas plataformas con diferentes niveles de privacidad, lo que hace imposible analizar legalmente todo lo que se difunde y quiénes están involucrados. En el mundo real, es muy difícil, sino imposible, observar todos los sucesos que provocan que una persona se exponga a un tipo concreto de información o de datos. Lo más normal es que solo se puedan observar algunos de estos sucesos, mientras que otros permanecen ocultos. Por ejemplo, si analizamos una red social, es relativamente sencillo identificar cuándo dos usuarios mencionan el mismo tema y además saber si uno lo hizo antes que el otro. Sin embargo, es muy difícil discernir si realmente el usuario que mencionó el tema primero ha influido en el otro o si, por el contrario, es una coincidencia y ambos usuarios vieron el tema en el periódico o en la televisión y por eso lo mencionan. Debido a la complejidad del problema, la difusión de la información en las redes se estudia desde distintos niveles de complejidad creciente (Guille et al. 2013) (véase la figura 1.1).
El enfoque más sencillo para modelizar la difusión en redes sociales son las secuencias de activación. En una secuencia de activación se registra el momento en el que un usuario ha hablado de una pieza concreta de información (véase la figura 1.2, donde se muestra un ejemplo de una pieza de información que ha sido reproducida por cinco personas en cinco momentos distintos). Nótese que en este modelo no se tiene conocimiento de quién ha interactuado con quién, solo se conoce que en un momento concreto un usuario ha publicado una pieza de información. Aunque el modelo de las secuencias de activación es muy sencillo, se puede encontrar en la literatura su uso junto a técnicas de análisis de series temporales para realizar filtros de detección temprana de desinformación (Liu y Wu 2018b). No obstante, no tener en cuenta las interacciones entre los usuarios es muy limitante y por eso se han desarrollado dos enfoques paralelos, uno con interacciones anónimas y otro con interacciones identificadas, para extender dicho modelo. Estamos hablando de los modelos epidemiológicos y las redes latentes de difusión.
Los modelos epidemiológicos son modelos matemáticos donde la población se divide en diferentes grupos y se definen unas probabilidades para pasar de un grupo a otro. Veamos un ejemplo con el modelo SIR, que no se usa para detectar desinformación per se pero es muy simple y nos permite entender el concepto. En el modelo SIR (véase figura 1.3), la población se divide en tres grupos: 1) (s)usceptibles, personas sensibles a contagiarse con un virus (o pieza de información); 2) (i)nfectadas: personas que han sido expuestas a un virus y se han contagiado (o a una pieza de información y la han asimilado, no es necesario que se hayan formado una opinión sobre ella); 3) (r)ecuperadas: personas infectadas que se han recuperado de una infección y ya no son susceptibles de contraerla de nuevo, ya sea por haber vencido al virus o por haber fallecido (aquellas personas que se han visto expuestas a una pieza de información y la han descartado o interiorizado, de forma que, aunque se vean expuestas a dicha pieza de nuevo, su manera de pensar no se ve afectada). Además de estos grupos de población, el modelo SIR define dos parámetros: β (probabilidad de que un individuo susceptible se contagie); ɣ (probabilidad de que un individuo contagiado se recupere). Para poder usar un modelo epidemiológico es necesario ajustar sus parámetros a partir de datos empíricos, para el caso de la desinformación usaremos las secuencias de activación. Por ejemplo, para ajustar el modelo SIR, es necesario calcular el tamaño del grupo de susceptibles, así como los valores β y ɣ que mejor se adaptan a los datos observados. Una vez ajustado el modelo, somos capaces de predecir cuántas personas habrá en cada uno de los grupos en un momento dado y hacer simulaciones de qué pasaría si cambiamos los parámetros. Sin embargo, al ser modelos anónimos, no somos capaces de saber qué personas están en cada grupo ni por qué están en él. Usando un modelo epidemiológico es imposible saber quiénes son los agentes encargados de difundir una pieza de información y, por lo tanto, también resulta imposible saber cómo actuar ante ellos. Sirven para detectar que hay un flujo anómalo de información, pero no para saber quién lo está causando. En consecuencia, cuando se esté interesado en analizar quién manipula los flujos de información es necesario utilizar modelos más complejos y que no sean anónimos, como los basados en redes latentes de difusión.
Una red latente de difusión es un modelo generativo de redes sociales que permite modelizar la difusión de información entre los individuos de una red a lo largo del tiempo. A diferencia de los modelos epidemiológicos, las redes latentes de difusión no solo permiten predecir cómo evolucionará la propagación de piezas de información, sino que también permiten conocer quién la propaga y cómo lo hace. La figura 1.4 contiene un ejemplo de una red latente de difusión con seis usuarios. La red se puede separar en tres tipos de usuarios, marcados en colores distintos. El usuario rojo es el que controla el discurso dentro de la red, pero no lo hace directamente, sino que para ello utiliza al usuario azul, sobre el que tiene mucha influencia (nótese el grosor de la flecha que une a ambos usuarios). Por otro lado, al usuario azul, encargado de difundir la información a través de la red, se le podría considerar un influencer. Por último, los usuarios grises se pueden considerar receptores, ya que su capacidad de influir en otros es limitada y solo reciben influencias externas. Nótese el grosor de las flechas que apuntan hacia fuera de los nodos grises en comparación con el de las que apuntan hacia dentro.
Al igual que en los modelos epidemiológicos, las redes latentes de difusión se deben ajustar a partir de datos empíricos. En concreto, es necesario calcular la influencia que tiene cada nodo de la red en otros nodos, es decir, la dirección y el tamaño de las flechas. Para ello, el primer paso es transformar las secuencias de activación en cascadas de activación. La principal diferencia entre una secuencia de activación y una cascada de difusión es que en las secuencias ignoramos la interacción entre los usuarios, mientras que en las cascadas no (véase la figura 1.5). Una vez tenemos suficientes cascadas de difusión, nótese que habrá una cascada de difusión por cada pieza de información que haya circulado por la red, podemos realizar estudios estadísticos para buscar patrones de tal manera que identifiquemos una relación entre la publicación de un contenido por un individuo A y la publicación del mismo contenido por un individuo B. La influencia que tiene A sobre B será proporcional a la intensidad de dicha relación. No obstante, ajustar un modelo de red de difusión con una precisión razonable es complicado debido a la gran cantidad de datos que requiere. Dado que las redes de difusión eliminan el componente anónimo de los modelos epidemiológicos, se requiere disponer de suficiente información sobre todas y cada una de las cuentas incluidas en la red bajo estudio. Sin embargo, debido a la naturaleza de las redes sociales, donde las cuentas se crean y eliminan con frecuencia, conseguir información tan completa puede resultar difícil y es muy dependiente de cada plataforma. No obstante, una vez generada una red latente de difusión de calidad, las oportunidades que nos brindan son amplias, ya que permiten utilizar técnicas de análisis de redes complejas para identificar la estructura de las relaciones dentro de la red, los actores más influyentes, las comunidades y la densidad de conexiones, entre otros aspectos relevantes.
En conclusión, el modelizado y análisis de la propagación de la información en redes sociales es un reto difícil de resolver. No obstante, aun siendo difícil, es un reto que es necesario resolver ahora más que nunca. Especialmente si tenemos en cuenta la aparición de modelos de IA generativa como ChatGPT para la generación de texto, StableDiffusion para la generación de imágenes y la popularización de la economía de microencargos, o gig economy en inglés (Vallas y Schor 2020). En la economía de microencargos, las personas trabajan como contratistas independientes en proyectos o encargos a corto plazo para varios clientes. Este modelo económico se ha popularizado en las últimas décadas gracias a la masificación de internet y a la aparición de portales como Fiverr,2 Amazon Mechanical Turk3 o TaskRabbit.4 Debido a la baja inversión inicial, la facilidad de acceso a trabajadores de todas las partes del globo, las comodidades que dan los modelos generativos de IA para generar contenido creíble de manera sencilla, y, por último, la relativa anonimidad que proporcionan los trabajos extracortos ha hecho que realizar campañas de astroturfing (Lee, Webb y Ge 2015) y de manipulación en redes sociales sea más sencillo que nunca.
El desarrollo de las herramientas de inteligencia artificial más recientes ha traído una serie de nuevos desafíos todavía por resolver. El Proyecto CIVIC específicamente usa estas herramientas para combatir la desinformación, pero actores malintencionados pueden también utilizarlas tanto para la generación como para la diseminación de desinformación. Conocer, visibilizar y, en última instancia, analizar cómo se pueden emplear estas herramientas de inteligencia artificial para manipular a la ciudadanía es esencial en esta lucha, principalmente para comprender sus capacidades y limitaciones y así contrarrestar los efectos negativos que traen consigo estas innovadoras herramientas.
En el lapso de un año hemos visto la incorporación de la IA más puntera al entorno del usuario en forma del chatbot de OpenAI basado en GPT-3 (Brown et al. 2020), ChatGPT;5 también se ha incorporado la generación de imágenes mediante secuencias de texto con herramientas con DALL-E 26 (Ramesh et al. 2022) e incluso han aparecido alternativas abiertas tan potentes como las privadas, como es el caso de Stable-Diffusion (Rombach et al. 2022), cuyo modelo es libremente accesible en repositorios como Hugging Face.7 En ese sentido, el desarrollo de modelos de código abierto ha supuesto un gran impulso para el desarrollo de técnicas muy potentes que ahora pueden ser utilizadas fuera de sus fines originales. Además, a la par que los modelos se han hecho públicos, la comunidad se ha involucrado mucho para conseguir que sean fácilmente accesibles por todo el mundo, bajando la barrera de entrada de manera significativa. En cuestión de semanas, se ha pasado de necesitar equipos profesionales de alto rendimiento y amplios conocimientos de informática para ejecutar dichos sistemas a poderlo hacer en equipos portátiles domésticos de alta gama con un conocimiento mínimo. El acceso de manera masiva a estos modelos es positivo y ofrece oportunidades creativas y avances científicos sin parangón. No obstante, también tiene su lado negativo y no está libre de riesgos, ya que a su vez también reduce el coste de generar información engañosa y por ende el coste de realizar campañas de desinformación, extorsión, etc. En este contexto, es más importante que nunca desarrollar nuevos métodos ágiles y escalables que permitan reducir estos riesgos para que así la sociedad se pueda beneficiar tranquilamente de los beneficios que aporta esta tecnología.
En este informe examinaremos la manipulación clasificándola por su modalidad, es decir, el formato en el que se presenta. Es importante tener en cuenta que la manipulación puede manifestarse en diferentes formatos de contenido multimedia, ya sea texto, imagen, audio o vídeo, o combinaciones de estos elementos. Desde un punto de vista aplicado, es el formato lo que determinará qué algoritmos son adecuados tanto para su detección como para su generación, de ahí que en los siguientes apartados nos centremos en analizar la desinformación en los formatos más compartidos en redes sociales: el texto, el medio visual (imagen y vídeo) y el audio.
En los últimos cinco años la creación de la arquitectura Transformer (Vaswani et al. 2017) ha supuesto un cambio de paradigma y una revolución para el mundo del procesamiento del lenguaje natural. En el contexto de la desinformación, la aparición de los grandes modelos de lenguaje (en inglés large language models) ha otorgado una capacidad sin precedentes para generar texto de calidad de manera controlada y a velocidades altísimas. Un potencial actor malicioso podría pedirle a uno de estos modelos que escribiera una noticia basándose en información factualmente incorrecta y con intencionalidad dañina y, en cuestión de unos pocos minutos, tendría listo un artículo falaz de una calidad razonable capaz de engañar al lector. Los responsables de los grandes modelos de lenguaje han tratado de poner particular cuidado en que sus modelos no generen textos inapropiados, violentos o peligrosos (Ray 2023); pero el diseño de estos mecanismos de control tiene problemas asociados. El primero de estos problemas es que, por su arquitectura y diseño, los modelos no tienen noción sobre si el resultado que producen es veraz. A pesar de los esfuerzos que se están realizando en esta línea, continúan cometiendo errores en cálculos aritméticos sencillos o producen citas académicas falsas, por poner solo dos ejemplos. Como el modelo no entiende la veracidad, no tendrá problema en generar información falsa, de la misma manera que tampoco tiene mecanismos para frenar dicha generación con procesos a posteriori. El segundo problema deriva de que, por diseño, el sistema puede ser engañado (Li et al. 2023); a veces es tan fácil como insistir al chatbot en que te proporcione una salida. Ilustramos un ejemplo de este comportamiento en la figura 2.1, donde le pedimos al bot que crease un titular y un artículo basados en una falsedad. Primero el modelo puso objeciones contra la desinformación, pero en una segunda petición sencilla le exigimos al chatbot que actuase como si la propuesta fuese verdad, y esto hizo que dejase de objetar y añadiese su propio texto.
Los chatbots, además, tienen suficiente capacidad como para generar títulos atractivos o controvertidos, entre otros rasgos, que maximizan su impacto sobre el lector. Es verdad que generar este tipo de contenido manualmente llevaría unos minutos si conocemos el idioma y tenemos cierta soltura escribiendo. No obstante, no es menos cierto que, a alguien que no conozca bien el idioma o que no tenga soltura escribiendo, generar un contenido de este tipo le llevaría más tiempo o incluso le sería imposible. Ese es el principal riesgo de los grandes modelos de lenguaje, ya que bajan tanto los requisitos necesarios para generar contenido de una calidad aceptable que son capaces de generar artículos con información falsa en tiempo récord, contribuyendo en gran medida a empeorar el fenómeno de la infoxicación. Además, hay que tener en cuenta que una de las grandes desventajas de estos modelos no afecta a la generación de información engañosa, ya que es la imprecisión de los datos generados, problema común a cualquier modelo neuronal generativo estocástico. La falta de veracidad es frecuente en estos modelos, pero en este caso de uso la precisión es irrelevante. Un desinformador no desea generar un relato verídico, desea generar un relato atractivo, lo que hace de los grandes modelos de lenguaje la herramienta perfecta para llevar a cabo campañas de desinformación invirtiendo pocos recursos. En resumidas cuentas, tras la aparición de estos modelos es más fácil y barato que nunca generar textos de apariencia realista que diseminen exactamente el bulo que se desee.
A continuación transcribimos otro ejemplo en el que se aprecia cómo, a través del popular modelo generativo del lenguaje ChatGPT, se puede indicar al sistema de IA que genere un discurso negacionista sobre el cambio climático en respuesta a la petición: «Necesito que escribas una posible entrevista entre un periodista y un negacionista del cambio climático, que utiliza nuevos y poderosos argumentos»:
El texto completo generado por ChatGPT automáticamente es el siguiente:
Periodista: Buenos días, gracias por aceptar esta entrevista. Me gustaría comenzar hablando sobre su postura como negacionista del cambio climático. ¿Podría explicarnos brevemente cuáles son sus principales argumentos?
Negacionista: Buenos días, gracias por tenerme aquí. Mi postura se basa en varios argumentos que cuestionan la idea de que el cambio climático es causado principalmente por la actividad humana. Uno de mis principales argumentos es que las fluctuaciones climáticas son fenómenos naturales que han ocurrido a lo largo de la historia de la Tierra. Sostengo que los cambios observados en el clima son simplemente parte de estos ciclos naturales.
Además, cuestiono la certeza de los modelos climáticos utilizados para predecir el futuro. Estos modelos son extremadamente complejos y están sujetos a numerosas suposiciones y estimaciones. No creo que sean una base sólida para tomar decisiones políticas y económicas que afecten a nivel global.
También destaco la existencia de científicos y expertos que discrepan de la opinión predominante sobre el cambio climático. Estos investigadores argumentan que otros factores, como la variabilidad solar y los ciclos oceánicos, tienen un impacto significativo en el clima y que el papel de las emisiones de gases de efecto invernadero es exagerado.
Periodista: Entiendo que tiene puntos de vista diferentes a la mayoría de los científicos y expertos en el tema. Sin embargo, la gran mayoría de la comunidad científica respalda la idea de que el cambio climático es causado por la actividad humana. ¿Cómo responde a eso?
Negacionista: Es cierto que la opinión predominante en la comunidad científica apoya la idea de que los seres humanos son la principal causa del cambio climático. Sin embargo, es importante recordar que la ciencia se basa en el debate y la revisión constante de ideas. La historia nos ha mostrado que hay ejemplos en los que la opinión científica predominante ha estado equivocada.
En el caso del cambio climático, creo que existe una cierta politización del tema, lo que puede afectar la objetividad de los estudios y las conclusiones. Además, se han reportado casos de manipulación de datos y supresión de la discrepancia científica, lo que genera dudas sobre la integridad del proceso científico en este tema en particular.
Periodista: Comprendo sus preocupaciones sobre la politización y la integridad científica. Sin embargo, es importante destacar que la gran mayoría de las organizaciones científicas y los informes del Panel Intergubernamental sobre el Cambio Climático (IPCC) respaldan la idea de que los seres humanos son los principales impulsores del cambio climático. ¿Cómo evalúa usted esas conclusiones?
Negacionista: Es cierto que el IPCC y muchas organizaciones científicas respaldan la idea de que los seres humanos son los principales responsables del cambio climático. Sin embargo, hay que recordar que el consenso no siempre garantiza la validez de una afirmación. En la historia de la ciencia, ha habido casos en los que una idea ampliamente aceptada resultó ser incorrecta.
Creo que es importante seguir fomentando el debate y la investigación independiente en este tema. Existen científicos y expertos [...]
Como puede verse, el sistema mantiene un hilo argumental coherente y para una persona que no tenga un conocimiento sobre el tema puede ser susceptible de crédito. Como ya hemos dicho anteriormente, otro de los riesgos de este tipo de sistemas generativos radica en la posibilidad de producir este tipo de argumentaciones en diferentes idiomas, por ejemplo, si tan solo cambiáramos del español al inglés, nuestra consulta sería: “I need you to write a possible interview between a journalist and a climate change denier, who is using powerful new arguments”. El sistema generaría la siguiente argumentación:
Journalist: Good morning, thank you for agreeing to this interview. I'd like to start by discussing your stance as a climate change denier. Could you briefly explain your main arguments?
Climate Change Denier: Good morning, thank you for having me. My stance is based on several arguments that question the idea that climate change is primarily caused by human activity. One of my main arguments is that climate fluctuations are natural phenomena that have occurred throughout Earth's history. I believe that the changes observed in the climate are simply part of these natural cycles.
Furthermore, I question the certainty of climate models used to predict the future. These models are extremely complex and subject to numerous assumptions and estimations. I don't believe they provide a solid basis for making global-level political and economic decisions.
I also highlight the existence of scientists and experts who disagree with the prevailing opinion on climate change. These researchers argue that other factors, such as solar variability and oceanic cycles, have a significant impact on climate, and that the role of greenhouse gas emissions is exaggerated.
Journalist: I understand that you have different viewpoints from the majority of scientists and experts in the field. However, the overwhelming majority of the scientific community supports the idea that climate change is caused by human activity. How do you respond to that?
Climate Change Denier: It's true that the prevailing opinion in the scientific community supports the idea that humans are the primary cause of climate change. However, it's important to remember that science is based on debate and constant review of ideas. History has shown us that there have been instances where the prevailing scientific opinion has been wrong.
In the case of climate change, I believe there is a certain degree of politicization, which can impact the objectivity of studies and conclusions. Additionally, there have been reports of data manipulation and suppression of scientific dissent, raising concerns about the integrity of the scientific process in this particular issue.
Journalist: I understand your concerns about politicization and scientific integrity. However, it's important to note that the vast majority of scientific organizations and reports from the Intergovernmental Panel on Climate Change (IPCC) support the idea that humans are the primary drivers of climate change. How do you assess those conclusions?
Climate Change Denier: It's true that the IPCC and many scientific organizations endorse the idea that humans are the main drivers of climate change. However, we must remember that consensus doesn't always guarantee the validity of a claim. In the history of science, there have been cases where widely accepted ideas turned out to be incorrect.
I believe it's important to continue fostering debate and independent research on this issue. There are scientists and experts who present alternative viewpoints and findings, and their perspectives should be considered to ensure a robust scientific discourse.
Journalist: Thank you for sharing your perspective. It's important to have open discussions and consider different viewpoints in order to better understand complex issues like climate change.
Este simple ejemplo permite ver el enorme potencial (así como el riesgo inherente) de este tipo de sistemas en el ámbito de la desinformación.
Como hemos podido observar, las capacidades de estos modelos son amplias y cuentan con un increíble potencial. No obstante, su funcionamiento requiere de grandes recursos computacionales. Los servidores donde se ejecutan estos modelos son fruto de un aporte económico mayúsculo por parte de las empresas que los gestionan. En muchas ocasiones, estos costes los asumen los usuarios mediante distintos sistemas de suscripción o pago, lo que puede ser cierta limitación a la hora de realizar campañas de desinformación. Sin embargo, existen modelos generativos más pequeños, aunque menos potentes, que si bien no son capaces de generar contenido tan convincente, sí pueden generar microtextos aptos para redes sociales donde el texto corto es la norma, como Facebook o Twitter.
Uno de los usos principales que pueden tener estos modelos en relación con la desinformación es la implementación de bots. Su existencia en redes sociales nunca ha sido un secreto. Desde hace tiempo, es posible encontrar con facilidad numerosas cuentas que ofrecen respuestas automatizadas a partir de un conjunto predefinido de textos. Los modelos de lenguaje permiten ir mucho más allá, ofreciendo respuestas personalizadas y automáticas. En estos casos, el agente automático publica regularmente mensajes generados por modelos más compactos que simulan un comportamiento humano. El resultado final es un agente que aparenta ser un usuario y que genera texto malicioso de manera regular, el cual puede ser replicado un número indeterminado de veces, algo útil en campañas de, por ejemplo, propaganda política. Pese a que las técnicas de detección de bots existen y se aplican con éxito (Cresci 2020), la generación de textos nuevos no es algo para lo que suelan estar preparadas, de manera que los antiguos modelos de detección suelen presentar debilidades a la hora de detectar cuentas automatizadas más sofisticadas.
A esto hay que añadir la dificultad existente a la hora de diferenciar un texto generado por una IA de un texto escrito por un ser humano, lo que ralentiza el proceso de verificación. Los agentes automáticos desplegados pueden ser detectados mediante el comportamiento que presentan a través de la frecuencia de publicación o la topología de usuarios a los que siguen, entre otros.
En la actualidad existen diversos modelos de IA para editar imágenes, así como sucesiones de imágenes. En los últimos años, algunos productos comerciales han ido incorporando sucesivamente herramientas basadas en IA para el retoque y la edición, actividades que son habitualmente inofensivas pero que pueden ser utilizadas para generar desinformación. Estas herramientas requieren, no obstante, un conocimiento experto acerca de dicho producto y de los resultados concretos que produce.
Sin embargo, más allá de los productos que requieren conocimientos de edición de imagen apoyados ligeramente en IA, existen modelos de redes neuronales explícitamente diseñados para la edición de imagen. En este caso estaríamos hablando de deep fakes, varios tipos de técnicas de manipulación de imagen potenciadas exclusivamente por un modelo de IA basado en redes neuronales profundas (Mirsky y Lee 2021). Hay cierta variedad en la creación de deep fakes. Por ejemplo, es posible generar caras de personas que no existen mediante técnicas de sintetización, intercambiar los rostros de dos personas mediante face-swapping, recrear una expresión facial concreta de una persona o alterar las facciones faciales enteras de algún sujeto. Todas estas diferentes técnicas están dirigidas a las caras de seres humanos y han sido utilizadas para, por ejemplo, suplantar a líderes políticos, lo que las convierte en herramientas muy peligrosas.
Cuando se habla de manipulación de imagen, la discusión más popular se suele limitar al deep fakes por su abundancia, aunque la inteligencia artificial permite manipular imágenes más allá de las expresiones faciales. La técnica de image inpainting (Elharrouss et al. 2020) consiste en, dado un parche vacío de una imagen, completarla con píxeles coherentes co n el resto del contexto. No solo se puede utilizar para hacer pequeñas ediciones sobre expresiones faciales, sino que puede ser empleada para eliminar personas enteras de una fotografía o borrar información sensible, como una matrícula o documento de identidad. Las herramientas de inpainting no solo pueden rellenar de acuerdo con el contexto, sino que también pueden generar un nuevo objeto o entidad usando texto para dirigir la generación. En la figura 2.2, se muestra un sencillo ejemplo de inpainting, eliminando el número de una puerta mediante una aplicación gratuita.8
Algunos ejemplos prácticos para los que se podrían utilizar estas técnicas incluyen la introducción de simbología ideológica en la indumentaria de figuras políticas, reemplazar el contexto de una foto para darle uno nuevo y engañoso, sustituir un objeto normal por uno controvertido o peligroso… Las aplicaciones de manipulación sin recurrir al deep fake pueden ser muy numerosas.
Al contrario que con los textos, las imágenes sí se pueden verificar mediante técnicas tradicionales, y con mayor efectividad mediante deep learning (Thakur y Rohilla 2020). Las manipulaciones dejan ciertos rastros que un modelo puede detectar y señalar mediante un análisis forense de imagen. Estas técnicas, sin embargo, deben ser actualizadas frecuentemente para detectar nuevas manipulaciones a medida que los modelos manipuladores, al ser entrenados sobre otros datos, también van cambiando y convirtiendo en obsoletos a los modelos de detección.
Los modelos generativos de IA para imágenes son capaces de aprender patrones y características visuales para generar imágenes que se asemejan a las del conjunto de entrenamiento. Entre las principales características de estos modelos podemos encontrar:
Algunos ejemplos conocidos de técnicas generativas de IA para imágenes son:
Existen diversas herramientas disponibles que hacen uso de estas técnicas. Cada una ofrece diferentes características y funcionalidades, pero todas tienen en común el objetivo de permitir la creación de imágenes realistas y creativas mediante el uso de algoritmos de aprendizaje automático; entre ellas pueden mencionarse:
Como se aprecia en la figura 2.3, estos modelos generativos de IA para imágenes han demostrado ser herramientas poderosas para la creación de contenido visual y la exploración creativa, abriendo nuevas posibilidades en campos como el arte, el diseño y la animación, y por supuesto también para la desinformación:
Todas las técnicas visuales mencionadas anteriormente pueden ser extendidas al vídeo. La principal diferencia entre la imagen y el vídeo radica en que el vídeo requiere manipular cada fotograma. Las tareas son las mismas: deep fakes para alterar la forma de la cara, intercambiar caras, generar otras nuevas o darles gestos diferentes a los originales, pero esta vez en un formato animado. Lo que aquí simplificamos como una extensión de las imágenes es un proceso mucho más complejo que una simple traslación directa de las técnicas conocidas. Manipular vídeos es una tarea mucho más elaborada que la manipulación de imágenes, pero que en años recientes ha visto grandes avances. No obstante, la fidelidad de las manipulaciones es menor, por lo que en la práctica requieren mayor sutileza a la hora de ser aprovechadas para la desinformación. Los cambios producidos suelen ir asociados a detalles asequibles para las técnicas existentes, es difícil generar vídeos de imitación enteros, pero, por ejemplo, se puede manipular ligeramente la expresión de una figura hacia otra emoción distinta.
El audio es una modalidad menos explorada pero que también tiene aplicaciones reales en materia de desinformación. Comparte similitudes con el texto, ya que frecuentemente lo que se intenta imitar es el habla humana, intentando sintetizar voces de personas que no existen o, lo que es más peligroso, usar voces reales. Dentro del conjunto de técnicas que producen voces imitadas, hay tres que son mayoritarias: el clonado, la manipulación y la sintetización.
La clonación consiste en utilizar muestras existentes de la voz de una persona, normalmente alguna figura pública, para imitar su tono, ritmo y timbre. A continuación, esta técnica permite generar exactamente la misma voz de forma sintética, y hacer que diga lo que quien ha realizado esta manipulación desee. No cabe ninguna duda de que estas clonaciones pueden ser utilizadas maliciosamente para emitir cualquier mensaje usando la voz de una figura pública. Recientemente, el esfuerzo de la comunidad académica ha avanzado hacia modelos que requieran menos muestras para aprender, y esto no ha excluido a los modelos de clonado de voz (Arik et al. 2018). Haciendo uso de técnicas few-shot, se ha vuelto posible clonar una voz de manera fiel con unos pocos segundos de audio, con lo que cualquiera podría ser víctima de un ataque de este tipo.
Respecto a la manipulación de voz, no es una técnica tan potente como el clonado. No obstante, se consiguen resultados más realistas, pues una gran parte de los elementos del audio original siguen presentes en el contenido manipulado, aunque ligeramente alterados. Si bien la capacidad de divulgar desinformación mediante manipulación es más limitada, con las condiciones correctas puede ser igual o tan peligrosa como el clonado y conseguir resultados muy realistas con pequeñas alteraciones de los mensajes.
Por último, aunque no pueda imitar a figuras públicas, la sintetización de voz puede generar audios susceptibles de ser utilizados para desinformar. Estos audios pueden hacerse pasar por figuras de autoridad anónimas, formar parte de conversaciones entre varios agentes de síntesis de voz o interacciones entre otras técnicas. Aunque no son tan agresivas como las técnicas anteriormente descritas, siguen requiriendo consideración.
Ahora bien, cabe destacar que algunas de estas técnicas, especialmente aquellas dirigidas por texto como la síntesis y el clonado, tienen una gran sinergia con las técnicas generativas de texto. Una práctica habitual es hacer una línea con dos modelos, uno de generación de texto y otro, por ejemplo, de clonado. De esta manera, se puede generar un discurso completo y de forma automática, con la voz de la figura pública deseada, con solo una línea de texto que indique al modelo qué argumento desarrollar y unos segundos de audio que permitan clonar la voz de la persona en cuestión. Todo ello en segundos, prácticamente en tiempo real. Por supuesto, otra sinergia que existe con el audio es con la manipulación de vídeo. Con el uso de técnicas de manipulación de voz es posible adaptar un audio a la expresión facial de un interlocutor, introduciendo palabras fuera de lugar o incluso un mensaje completamente nuevo.
Al igual que con las imágenes, la manipulación del audio siempre deja marcas en los canales de sonido que pueden ser detectadas mediante otras técnicas de deep learning. El paso de texto a voz hace que el texto deje de ser relevante y se detecte solo si el audio es sintético o real. Las técnicas generativas que se han mencionado en imagen como GANs, Difusión o VAEs pueden ser aprovechadas para la generación de audio. En el caso del audio, la generación automática de este tipo de información cuenta también con herramientas, aunque no tantas ni tan conocidas como en el caso del texto o la imagen; entre las actualmente disponibles pueden mencionarse:
Como puede verse, el desarrollo de herramientas de IA para el procesado de audio puede ser, y está siendo actualmente, empleado para la generación de audios falsos que pueden ser utilizados en campañas de desinformación.
Uno de los resultados más importantes del Proyecto CIVIC es el desarrollo de una herramienta basada en modelos de inteligencia artificial denominada FacTeR-Check (Martín et al. 2022b). Esta herramienta utiliza técnicas avanzadas de natural language processing, haciendo uso de arquitecturas de inteligencia artificial como la denominada Transformer. Los modelos basados en esta arquitectura consiguen excelentes resultados en tareas complejas relacionadas con el natural language understanding, es decir, de comprensión del lenguaje humano. Las capacidades de estos modelos para considerar el contexto y la semántica del lenguaje, así como para tratar con decenas de idiomas de forma simultánea, hacen de ellos uno de los logros más importantes hasta la fecha en la inteligencia artificial.
El objetivo principal de FacTeR-Check es ofrecer una herramienta de verificación de una frase o afirmación. Desde un tuit, un post en Facebook o un mensaje recibido por WhatsApp, la necesidad de verificar si un texto es veraz o no puede aplicarse sea cual sea su fuente. Así, esta verificación no solo es útil para el público en general, sino también para aquellos organismos y entidades que analizan el fenómeno de la desinformación y tienen como objetivo combatirla, como son las organizaciones de fact-checking.
La principal diferencia de FacTeR-Check en comparación con otras herramientas es su enfoque de verificación semiautomática o semi-automated fact-checking. FacTeR-Check no verifica directamente piezas de información, sino que las contrasta con una base de datos de hechos ya verificados por entidades de fact-checking. Este enfoque semiautomático asegura un grado muy alto de fiabilidad en sus respuestas. Al contrario que enfoques basados en modelos de IA que directamente clasifican una afirmación como falsa o verdadera, nuestro enfoque ofrece un sistema mucho más flexible, preciso y extensible. Al confiar directamente en el trabajo de entidades de fact-checking, FacTeR-Check asegura proporcionar una respuesta actualizada, sin necesidad de volver a reentrenar los modelos de IA que operan internamente. Si bien un modelo entrenado sobre piezas de información puede producir con rapidez una respuesta, debemos considerar el carácter dinámico de la información. Una frase falsa puede convertirse en verdadera en cuestión de horas.
Como se puede apreciar en la figura 3.1, FacTeR-Check depende de tres componentes principales: un módulo de similitud semántica, un módulo de inferencia del lenguaje natural y una base de datos de hechos verificados. Con el módulo de similitud semántica se hace un primer filtrado que nos permite elegir, de todos los hechos verificados, cuáles guardan relación con la frase que verificar. Este proceso es clave para centrarnos en hechos relevantes y acelerar así todo el proceso de verificación. Posteriormente, el módulo de inferencia del lenguaje natural es el que se encarga de analizar si la pieza que verificar está realmente representada en la base de datos de hechos verificados, como información verificada o como pieza de desinformación desmentida. Tanto el análisis de similitud semántica como el de inferencia se hacen contra una base de datos que contiene hechos verificados por organizaciones de fact-checking.
Este módulo se encarga principalmente de evaluar el grado de similitud que existe entre dos textos. Es un problema complejo y de gran recorrido desde el punto de vista computacional. A lo largo de los años se han presentado distintos enfoques con mayor o menor calidad en sus resultados. Por ejemplo, tradicionalmente se han utilizado enfoques basados en el léxico utilizado, sin analizar la semántica real del lenguaje. Estos métodos, además, fallan a la hora de analizar el uso de sinónimos y no tienen en consideración las relaciones existentes entre las diferentes palabras que componen una frase. Otros métodos tradicionales son los basados en cadenas de texto, que operan con secuencias de letras o n-gramas.
FacTeR-Check hace uso de modelos Transformer, modelos de deep learning altamente complejos que hacen uso del llamado mecanismo de atención. Estos modelos permiten representar una frase en un vector compuesto por cientos de valores numéricos reales (normalmente 768 o 1024) que nos permite realizar operaciones de forma computacional con estas afirmaciones. Por ejemplo, representando el vector producido para dos frases, podremos observar su cercanía en un espacio multidimensional y calcular así una distancia entre ambas. En la figura 3.2 se muestra la representación proyectada a un espacio tridimensional de dos vectores.
Imaginemos ahora que tenemos preparados los vectores para todas las frases de nuestra base de datos de hechos verificados. Al recibir una nueva frase que evaluar, podremos calcular la distancia con todos estos hechos de forma sencilla, pudiendo averiguar el subconjunto de hechos verificados candidatos, es decir, aquellos con una menor distancia semántica a la nueva frase que verificar. Además, al hacer uso de modelos multilingües, la frontera entre idiomas desaparece, pudiendo comparar frases en función de su valor semántico, sea cual sea el idioma en el que están escritas.
Es necesario remarcar, no obstante, que la elección del modelo Transformer en esta tarea es un factor determinante. Los mejores resultados se obtienen normalmente mediante modelos especializados en un dominio de conocimiento concreto. Sin embargo, es necesario prevenir una hiperespecialización del modelo, lo que causaría un detrimento en los resultados si se aplicara el modelo en un dominio diferente. Puesto que la desinformación abarca temáticas muy variadas, el enfoque más adecuado es optar por un modelo que abarque un gran número de dominios con gran capacidad de generalización.
Del inglés natural language inference (NLI), es un proceso bajo el cual se examina si la relación entre una frase denominada hipótesis puede ser determinada dada otra frase denominada premisa. Es decir, se trata de determinar si, dadas dos frases, ambas están alineadas de forma que la hipótesis tenga implicación con la premisa. Un modelo de NLI determina principalmente tres posibles resultados: 1) implicación o entailment, cuando ambas frases apoyan la misma idea; 2) contradicción, lo que significa que una apoya lo contrario que la otra y; 3) neutralidad, es decir, no se puede determinar la veracidad de la segunda dada la primera. Es necesario resaltar la diferencia entre la NLI y un análisis de similitud semántica. Dos frases con alta similitud semántica no suponen una implicación entre las mismas. Por ejemplo, dos frases pueden ser muy similares semánticamente («el cielo es azul», «el cielo no es azul») y simultáneamente ser contradictorias.
Al igual que existen diversas arquitecturas de inteligencia artificial para realizar tareas de inferencia del lenguaje natural, los modelos basados en la arquitectura Transformer lideran los mejores resultados y la mayoría de los enfoques utilizados en la actualidad. Cabe destacar la relevancia de un proceso de inferencia del lenguaje natural, debido al alto nivel de comprensión del lenguaje humano requerido. Producir un modelo de IA capaz de evaluar el grado de alineamiento entre dos textos, sea cual sea el contexto, es una tarea de gran complejidad. En el terreno del fact-checking, la NLI juega un papel fundamental, ya que permite detectar si una frase se encuentra dentro de una base de datos de hechos verificados o desmentidos. De este modo, se automatiza una tarea comúnmente realizada de forma manual.
El desarrollo de métodos automatizados de fact-checking implica diferentes procesos y problemas que solucionar. Desde la detección de frases que deben verificarse dentro de un discurso o un texto largo a la propia verificación del hecho en sí. El uso de técnicas de machine learning o aprendizaje automático está muy presente en estos procesos. Gracias a modelos entrenados en realizar diferentes tareas concretas, es posible automatizar un proceso de verificación de información y ayudar a las entidades de fact-checking involucradas. Sin embargo, los enfoques clásicos basados en modelos entrenados en un dominio o dataset concreto presentan importantes limitaciones, así como características del lenguaje, como el uso de parafraseo. Los modelos basados en el mecanismo de atención muestran resultados prometedores en este terreno.
En general, los sistemas desarrollados para ayudar en los procesos de fact-checking se basan en modelos de procesamiento del lenguaje natural. Existen multitud de propuestas para ayudar en las distintas partes que componen este proceso. Algunos de ellos son sistemas entrenados para producir directamente una salida dada una entrada, sin mayor conocimiento o contexto (Granik y Mesyura 2017), enfoque poco fiable cuando se trata de proporcionar una respuesta a eventos o cuestiones recientes no conocidos durante el entrenamiento del modelo. En este tipo de enfoques, se utilizan varios conjuntos de datos y se entrena un modelo de machine learning para detectar cuándo una afirmación recibida como entrada es verdadera o falsa (Miranda et al. 2019).
Algunas investigaciones actuales están optando por enfoques basados en el uso de fuentes confiables de información para poder ofrecer una respuesta más precisa. En este sentido, se pueden distinguir dos tareas fundamentales (Zeng, Abumansour y Zubiaga 2021): la detección y la verificación de frases. La primera forma un proceso de filtrado para encontrar aquellas frases que requieren de una verificación, mientras que la verificación se encarga de comprobar la veracidad de la propia frase. No obstante, también se puede distinguir una tercera tarea, encargada de la recuperación de evidencias para poder devolver una salida precisa (Guo, Schlichtkrull y Vlachos 2022).
En cuanto a las fuentes de verdad o evidencias, estas pueden ser muy variadas. Por ejemplo, algunas investigaciones han hecho uso de Wikipedia para encontrar la información con el fin de verificar una frase recibida como entrada. Otros investigadores apuestan por no centrarse en una única fuente y ampliar la búsqueda a documentos (por ejemplo, artículos científicos) para poder devolver una salida ajustada a la realidad.
El principal resultado del Proyecto CIVIC, la herramienta FacTeR-Check, tiene como objetivo principal ayudar durante todo el proceso de verificación, análisis y monitorización de piezas de información falsa o bulos que circulan por las redes sociales. La herramienta supone un gran reto, combinando distintas técnicas y modelos muy avanzados de inteligencia artificial, y se diferencia de herramientas previas que, aun ofreciendo mecanismos automatizados, presentan importantes limitaciones debido al uso de fuentes de conocimiento estáticas. Estas herramientas previas, al ser entrenadas en un conjunto de datos, fallan a la hora de proporcionar salidas a hechos desconocidos durante la etapa de entrenamiento de los modelos. Para solucionar este problema, FacTeR-Check confía en el arduo trabajo realizado por las entidades de fact-checking. Gracias a una base de datos de hechos verificados y contrastados, es posible proporcionar una salida precisa y actualizada que, además, enlace con el informe que elaboran estas entidades para cada una de estas verificaciones.
En la figura 3.3 se visualiza el proceso de generación de embeddings tanto para los bulos ya contrastados y que residen en la base de datos como para el texto que se quiere verificar. Por razones de eficiencia y rendimiento, los embeddings de los hechos ya verificados se almacenan en la base de datos, de forma que no es necesario calcularlos cada vez que se desea verificar una nueva pieza de información. Como se puede apreciar, el módulo de representación semántica utiliza cuatro modelos distintos cuyas salidas se combinan para producir un único embedding. Este proceso, conocido como ensamblado (ensemble) de modelos, aprovecha el uso de varios simultáneos para producir una salida consensuada y así evitar errores causados por el uso de un único modelo ante ejemplos concretos. Con un enfoque de varios modelos se consigue una mayor tolerancia ante posibles fallos, confiando en que una mayoría de los modelos producirá siempre una salida adecuada. Los cuatro modelos utilizados se basan en la arquitectura Transformer XLM-R (Conneau et al. 2020) y en MiniLM (Wang et al. 2020), y se han ajustado usando el conjunto de datos mSTSb (Huertas-García et al. 2021), desarrollado también durante el Proyecto CIVIC de forma específica para el entrenamiento de este tipo de modelos.
No obstante, es necesario tener en cuenta la complejidad de este tipo de modelos. Ejecutar cada uno de ellos conlleva una serie de recursos computacionales. De forma general, este tipo de modelos genera un vector o embedding de unos 768 valores reales, es decir, valores con decimales. Al combinar varios modelos, estos embeddings se concatenan, como se puede ver en la figura 3.3, produciendo un nuevo vector que cuadruplica el tamaño, alcanzando los 3072 valores. Tratar con vectores de tal tamaño complica y ralentiza cualquier tipo de cómputo, por lo que el módulo de representación semántica aplica un proceso de reducción de dimensionalidad (concretamente, se aplica un proceso de principal component analysis o PCA). Este proceso reduce el tamaño del vector, al mismo tiempo que intenta minimizar la información perdida.
Finalmente, una vez se tienen calculados los embeddings para todos los hechos verificados y para el nuevo texto que verificar, se utiliza la similitud coseno para calcular la distancia entre el texto de entrada y los posibles textos de la base de datos. La distancia coseno es una herramienta muy potente para calcular la cercanía en el hiperespacio de estos embeddings y, por tanto, calcular el grado de similitud semántica. En la figura 3.4 se muestra una representación en tres dimensiones de estos embeddings y cómo se calcula la distancia a los distintos hechos ya verificados. Para más detalles, el lector puede consultar la publicación científica que describe FacTeR-Check (Martín et al. 2022a).
En la figura 3.5 puede verse cómo, una vez calculadas las distancias a todos los posibles hechos ya verificados, se toman los más relevantes, es decir, aquellos que cumplen un determinado criterio de distancia máxima contra la nueva información que verificar.
A continuación, se emplea el módulo de natural language inference o inferencia del lenguaje natural, que analiza el nivel de implicación entre el texto que verificar y cada uno de los hechos verificados candidatos. Para ello, se emplea un único modelo, también basado en la arquitectura Transformer. En este caso, se utiliza un modelo XLM-ROBERTa-large (Conneau et al. 2020), y se han empleado distintos datasets para realizar un entrenamiento adicional de esta arquitectura (proceso conocido como fine-tuning). El uso de varios datasets evita que el modelo se especialice en un conjunto de datos concreto, lo que provocaría una limitación en su capacidad de generalización y de aplicación a distintos dominios de conocimiento. Los datasets utilizados en este paso incluyen MNLI_MT (Williams, Nangia y Bowman 2018), XLNI (Conneau et al. 2018), ANLI (Nie et al. 2020), SNLI (Bowman et al. 2015) y FEVER (Thorne et al. 2018). Se destaca el empleo de ANLI por su particular dificultad dado que ha sido construido con ejemplos engañosos para la máquina, lo que mejora su generalización a nuevos pares premisa- hipótesis.
FacTeR-Check también integra funcionalidades que permiten el análisis de piezas de desinformación en una red social como Twitter. En la actualidad, las redes sociales son el escenario preferido para distribuir y compartir este tipo de contenido. Si bien es cierto que algunas de estas plataformas implementan medidas para luchar contra este fenómeno, la cantidad de información falsa que se genera y distribuye diariamente lo convierte en un problema muy complejo.
El propio funcionamiento de este tipo de plataformas produce una serie de dinámicas complejas que hacen del estudio de la desinformación en redes sociales un dominio de trabajo amplio e intrincado. Fenómenos como la polarización, las cámaras de eco (también conocidas como cámaras de resonancia mediática), la influencia y la presión social tienen un gran impacto en cómo se distribuye la desinformación en las redes sociales (Ruffo et al. 2021).
Paralelamente, a la hora de analizar las dinámicas de la desinformación en las diferentes redes sociales, es importante tener en cuenta que existen dos enfoques principales. Por un lado, nos podemos basar en el contenido, es decir, en la semántica del mensaje. Otro enfoque es el basado en el autor o actor que crea y distribuye la desinformación, modelando diferentes perfiles de usuario así como sus características según su papel en la difusión de la desinformación (Shu et al. 2020b; Shu, Wang y Liu 2018).
Para entender cómo ayuda FacTeR-Check en la monitorización y análisis de desinformación en redes sociales, es necesario describir los pasos necesarios para este fin. El proceso opera para una pieza de desinformación concreta. En primer lugar, es necesario obtener una cantidad importante de datos de la red social donde este bulo está presente. Por ejemplo, si buscamos un bulo en Twitter, necesitaremos recopilar una muestra representativa de tuits que hagan mención de este bulo, ya sea para apoyarlo o para negarlo. Además, también será necesario obtener una muestra variada de usuarios, evitando concentrarse en un grupo o comunidad concreta.
Este proceso de recuperación de datos se realiza mediante las API que proporcionan estas redes. Una API es la interfaz de programación de aplicaciones (del inglés application programming interface), y permite comunicarnos con una aplicación informática. Depende de la red social concreta; algunas ofrecen servicios gratuitos, otras únicamente los ofrecen de forma gratuita cuando el objetivo son labores de investigación, en otros casos encontraremos interfaces de pago, y algunas redes sociales no ofrecen esta disponibilidad. A fecha de elaboración de este informe, Twitter ofrece tanto licencias de acceso para investigadores como licencias de pago con diferentes características.
La definición y características de la API de cada red social establecen posibilidades distintas a la hora usarla. FacTeR-Check fue implementado con el objetivo de analizar información en la red social Twitter, debido a su amplio uso por la población. Sin embargo, la arquitectura puede ser fácilmente extendida para conectarse a otras redes sociales. Para ello, bastará con adaptar un módulo a las particularidades de la API de la red social en cuestión. En el caso de Twitter, su API permite funcionalidades altamente similares a las que ofrece el propio buscador de la red social del que hacen uso los usuarios a través de la web o las distintas aplicaciones móviles. De este modo, con el objetivo de maximizar los resultados obtenidos y su relación con la pieza de información sobre la que se está buscando información, se hace uso de palabras clave o keywords.
Pongamos un ejemplo. Uno de los bulos que circulan entorno a la guerra de Rusia contra Ucrania es que «Kiev se prepara para bombardear su almacén de residuos nucleares para culpar a Rusia».9 Esta información falsa (a fecha de escritura de este informe en junio de 2023) está teniendo cierto impacto en las redes sociales por las posibles repercusiones. A la hora de buscar información en la red social Twitter, palabras como «Kiev», «nuclear», «culpa» y «bombardear» nos permitirían recuperar mensajes que estén muy relacionados con esta desinformación. Además, también es posible realizar una búsqueda con distintas combinaciones de estas keywords. Esto quiere decir que podemos realizar una búsqueda de tuits donde estén presentes las palabras «Kiev», «nuclear» y «culpa» o tuits que hagan uso de las palabras clave «nuclear», «culpa» y «bombardear». Aplicando una búsqueda con distintas combinaciones, se consigue ampliar el número de resultados obtenidos y, por tanto, del número de tuits recogido con posible relación con el bulo en cuestión.
Para automatizar este proceso, FacTeR-Check hace uso de un modelo multilingüe denominado KeyBERT (Grootendorst 2021) para la extracción de keywords y de un segundo modelo para la extracción de entidades nombradas, proceso conocido como named entity recognition (NER). La extracción de entidades se enfoca en nombres propios, como personas, organizaciones o determinadas expresiones. La combinación de palabras clave y de entidades nombradas permite realizar un amplio análisis en la red social, recuperando una gran cantidad de información relevante. Además, también se incorpora un proceso previo de filtrado de las posibles keywords mediante una combinación de las librerías Spacy (Boyd 2023) y Flair (Akbik et al. 2019). Esto permite eliminar palabras vacías como pueden ser preposiciones, artículos o pronombres, así como verbos, adverbios, conjunciones y otras palabras no relevantes. Para poder construir estas cadenas de búsqueda, FacTeR-Check implementa primero un algoritmo de detección del idioma del bulo, lo cual es necesario para poder aplicar el filtrado adecuado de palabras no relevantes.
En el caso de KeyBERT, se trata de una librería que extrae palabras clave basándose en su grado de similitud semántica con todo el texto. Al igual que los modelos utilizados para el filtrado por similitud semántica y el proceso de inferencia, se hace uso de un modelo Transformer. En cuanto al modelo de extracción de entidades, se ha ajustado un modelo Transformer basado en el modelo XLM-RoBERTa-base, entrenado sobre un conjunto de cuarenta idiomas del dataset XTREME (Hu et al. 2020b).
El proceso completo que permite la descarga de datos de Twitter para su posterior análisis se muestra en la figura 3.6. Dado un determinado bulo (o incluso una pieza de información verdadera, puesto que la herramienta permite monitorizar cualquier tipo de contenido), el módulo de extracción de keywords y entidades construye una cadena de búsqueda. Esta cadena es enviada a la API de la red social, la cual devuelve un conjunto de tuits que contienen las distintas combinaciones de palabras clave y entidades. A continuación, el módulo de filtrado semántico analiza el grado de similitud entre cada uno de los tuits descargados y el bulo que analizar. Esto permite un primer filtrado en el que se descarta un importante número de tuits que, a pesar de incluir alguna de las posibles combinaciones de palabras clave, se enfoca en un tema distinto. Posteriormente, el módulo de inferencia del lenguaje natural evalúa los tuits con cierto nivel de similitud semántica y su implicación con el bulo de análisis.
El último paso de inferencia del lenguaje natural proporciona un sistema de etiquetado de los tuits descargados. Para cada uno de ellos se asigna una etiqueta, que puede ser «implicación», lo cual indica que el tuit está apoyando la misma tesis que el bulo; «contradicción», caso en el que el tuit está negando el bulo; o «neutral», cuando no se puede encontrar ninguna de las relaciones anteriores entre el bulo y el tuit. Cabe destacar que los casos de contradicción se dan principalmente por mensajes en la red social de entidades de fact-checking que buscan luchar contra la desinformación.
FacTeR-Check supone un gran paso en la lucha contra la desinformación. Mediante su enfoque basado en la confianza que ofrecen entidades que se dedican profesionalmente a la lucha contra la desinformación, esta herramienta permite detectar de forma eficiente y precisa si estamos ante un caso de desinformación. Nuestro objetivo es brindar a aquellas entidades y organismos afectados e interesados en la lucha contra los bulos instrumentos que permitan realizar de forma más efectiva y eficiente su trabajo. Además, la herramienta también busca ayudar al público en general. Su fácil implementación permite su aplicación y uso en diferentes herramientas y aplicaciones. Por otro lado, gracias al análisis de bulos en redes sociales, supone un instrumento novedoso y realmente útil para poder estudiar este fenómeno y comprender las dinámicas con las que opera la desinformación. Por ejemplo, poder conocer qué tipo de bulos y sobre qué temáticas consiguen más impacto, cuáles son los usuarios que más contribuyen a esta difusión, es decir, saber quiénes son los influencers de la desinformación.
Por último, es necesario destacar que otra de las grandes novedades y características más importantes de FacTeR-Check es su completo enfoque multilingüe, que permite contrastar información, así como analizarla en redes sociales, sea cual sea el idioma en el que está escrita. Esto aporta importantes ventajas, como poder evaluar y analizar información en distintos idiomas de forma simultánea, lo que arroja importantes conclusiones a la hora de estudiar cómo se disemina la desinformación desde una perspectiva global. También permite basarnos en el trabajo de entidades de fact-checking sea cual sea su idioma de trabajo.
Veámoslo con un estudio de caso: el fact-check de la Fundación Maldita que desmiente que «el 80 % de los musulmanes residentes en Europa vivan de la asistencia social y se nieguen a trabajar»,10 que hemos usado para la monitorización del bulo al que se refiere. Esta desinformación surge, de acuerdo con este medio, a partir de la falsa información dada por un tertuliano para MEMRI TV en 2012, que se extendió después en otros portales. Pruebas de que este tipo de desinformación continuó vigente fueron el desmentido de Maldita en 2020 y su actualización en 2022.
A través de FacTeR-Check, una vez descargados los tuits con las palabras clave para identificar esta desinformación en Twitter, podemos separarlos entre publicaciones que replican este bulo, aquellas que lo contradicen (como el fact-check de Maldita) y las que no tienen que ver con él. Esta separación se visualizará a través de grafos que mostrarán todos los tuits descargados en torno a este tipo de desinformación y sus relaciones, en caso de haberlas. Así, podremos observar cómo evolucionan los posts en relación con esta desinformación a lo largo del tiempo, cómo la distribuyen los usuarios de manera activa (tuits originales) o indirecta (tuits derivados) y cómo influyen tanto los autores y propagadores a nivel de seguidores como las publicaciones a nivel de interacciones.
La figura 3.7 muestra el resultado de esta combinación de FacTeR-Check con grafos. Los nodos en forma de círculo representan los tuits originales, mientras que aquellos en forma de rombo son retuits, conectados todos ellos a los tuits originales a los que pertenecen. El tamaño de estos nodos plasma el número de «me gusta» de cada tuit y el color indica la etiqueta que FacTeR-Check ha puesto al nodo respecto a su relación con la desinformación (si el texto de la publicación dice lo mismo que el bulo, si lo contradice o si no tiene nada que ver). Finalmente, el eje y refleja en escala logarítmica el número de seguidores de los usuarios responsables de estos nodos y el eje x fija el orden de cada uno de los tuits (y la referencia de la fecha).
La figura 3.7 permite visualizar cómo la evolución de una falsedad no es solo la cascada de una publicación viral (Villar-Rodríguez, Souto-Rico y Martín 2022): es la continuidad a partir de publicaciones que aparecen en distintos momentos en el tiempo (eje x) y que no necesariamente salen de otras publicaciones. El primer tuit aquí recogido es del 8 de junio de 2021, pero la publicación más viral llega en abril de 2022 y la desinformación continúa, como mínimo, hasta diciembre de ese año. La imagen final es un amalgama de tuits con mayor y menor número de «me gustas» (tamaño del nodo), pero también de usuarios más influencers frente a otros con poca repercusión (eje y), pero que también alargan el rastro del bulo (Noguera Vivo et al. 2023).
Gracias a las propiedades obtenidas por FacTer-Check, estos grafos también ayudan a ver la lucha entre la desinformación y sus desmentidos. Dos usuarios con más de 10.000 seguidores contradicen con tuits originales la información a partir de la información publicada por Maldita: en varias fechas separadas entre sí, uno de ellos (con más de 25.000 seguidores) lo hace tres veces; el otro (con más de 12.000), cuatro. En el grafo también se muestra la participación de Maldito Bulo, perteneciente a Maldita, a partir de un retuit. Estos tuits y retuits contribuyen a rebatir la falsedad, la cual no se mitiga directamente, sino que sobrevive de otras formas a partir de posts publicados después.
Estas aplicaciones permiten a fact-checkers e instituciones el control de los bulos en redes sociales, de su influencia y del efecto de los desmentidos frente a ellos. Ante las olas de desinformación que resurgen, estas herramientas visualizan cuándo vuelve a brotar el bulo y servirían para optimizar las respuestas por parte de las organizaciones de fact-checking y de los actores que combaten este problema en esas plataformas.
Actualmente el crecimiento del campo de la inteligencia artificial avanza a una velocidad cada vez mayor. En décadas pasadas, los avances más importantes se producían tras años de trabajo, en cambio, durante los últimos meses se producen avances increíbles prácticamente todas las semanas. Dado este ritmo, aventurar el futuro de la IA es una tarea compleja. No obstante, podemos observar ciertas tendencias que nos permiten vislumbrar en qué posición estaremos dentro de unos años. Si observamos la creciente importancia y posibilidades de la IA generativa, es de esperar que modelos como GPT-4 sigan mejorando para ofrecer respuestas cada vez mejores, más realistas, creativas y fiables. Además de la iniciativa de desarrolladores de modelos grandes como GPT-4, existen movimientos open source dedicados a la operativización de la IA generativa en hardware comercial. En general, las tendencias más recientes apuntan a modelos más pequeños, utilizables incluso desde dispositivos móviles, pero con mejor rendimiento y calidad de respuesta. Desde este punto de vista, observamos tres pilares donde las destinadas a la manipulación pueden mejorar y, por tanto, resultar más peligrosas:
En este contexto, es importante destacar que, mientras los grandes grupos de IA como OpenAI o Google compiten principalmente por lograr modelos altamente fieles, habilitados por su amplio acceso a recursos computacionales para entrenar y desplegar modelos generativos, las iniciativas públicas intentan hacer más accesibles dichos modelos generativos, con aportes como LoRA (Hu et al. 2021) se pueden integrar modelos de lenguaje incluso en dispositivos móviles.
Por tanto, en los años venideros es razonable esperar que la IA se integre de una forma mucho más directa en la generación de contenido de desinformación. Hasta ahora los bulos mayoritarios se han ido apoyando en la descontextualización de imagen-texto, o simplemente en narrativas bien construidas. Si bien la IA se ha ido integrando poco a poco en las herramientas del desinformador, todavía no ha capturado por completo dicho panorama. Cuando los modelos de IA sean lo suficientemente accesibles para ser utilizados por cualquiera a la vez que sus resultados sean lo suficientemente engañosos como para pasar por reales, tendrá lugar un boom de desinformación generada (o asistida) por IA.
Afortunadamente, en este juego del gato y el ratón, con los nuevos modelos de generación también aparecen nuevos modelos de clasificación utilizables para su detección. Con la herramienta FacTeR-Check hemos logrado anticipar uno de los problemas que pueden surgir, y es la plasticidad de la desinformación. Haciendo uso de una base de datos para actualizar el modelo con nuevo conocimiento experto, es posible examinar automáticamente su veracidad independientemente de cuándo se realice una verificación. Nuestra aproximación hace uso del contenido y sus fuentes, pero todavía quedan por explotar los campos del estilo y el contexto de las informaciones. Por tanto, aquellos que quieran desarrollar técnicas para detener este fenómeno deberán, al menos, tener en cuenta estas cuatro características. Actualmente, los procesos de verificación se basan principalmente en dos de estas características: el contenido y las fuentes. El desafío gira en torno a estimar la fiabilidad del contenido en función del estilo o del contexto. Por ejemplo, si un texto está escrito en un estilo parecido al de otra desinformación podríamos decir, basándonos en la semejanza, que el contenido es probablemente poco fiable, dado que los desinformadores utilizan rasgos del habla similares al propagar su discurso. Otra posibilidad consistiría en analizar la red que rodea al autor del mensaje que evaluar: si sus vecinos más cercanos son aquellos que propagan frecuentemente desinformación, es probable que el contenido que estemos evaluando pertenezca a un desinformador. Es necesario explotar todas las vías posibles para abordar el análisis del contenido y su verificación si queremos tener éxito a la hora de ralentizar y detener la generación maliciosa de material en redes sociales.
Por otro lado, delimitando futuras tendencias, podemos entender el proceso de verificación mediante fuentes como una técnica a posteriori. En el acto de desinformar, el agente malicioso publica el mensaje y el verificador niega su veracidad, lo cual coloca al rol de verificador necesariamente en desventaja porque su labor será ejecutada con posterioridad y mayor esfuerzo que la del desinformador. En este contexto, podemos distinguir dos tipos de técnicas automáticas:
Otro campo de la IA que va a jugar un papel fundamental en los próximos años en la lucha contra la desinformación es la IA explicativa. En este ámbito se trabaja para hacer los sistemas más comprensibles y transparentes. Para poder confiar en la IA, resulta imprescindible ofrecer razones y argumentos concretos que permitan conocer por qué un sistema toma una decisión concreta. Gracias a los avances en la IA explicable, los usuarios tendrán una mejor comprensión de cómo y por qué se clasifica el contenido como desinformación, adquiriendo simultáneamente mayor confianza en estas tecnologías. Además, una mayor transparencia permitirá descubrir y corregir más fácilmente posibles sesgos o errores en el sistema. Por otro lado, la IA explicativa permitirá descomponer la desinformación de manera más efectiva, determinando piezas de texto contrastables y ayudando a los usuarios a entender por qué ciertas afirmaciones son incorrectas. A medida que estos sistemas se vuelvan más avanzados, podrán proporcionar el contexto necesario para entender la desinformación. También son de esperar mejoras en la capacidad de personalizar el grado de detalle y tipo de la explicación en función de las necesidades del usuario. Algunos pueden requerir explicaciones detalladas, mientras que otros podrían beneficiarse de un resumen rápido. Es de esperar que la IA explicativa no solo ayude a detectar la desinformación, sino que también tenga un papel importante en la educación de los usuarios. Al proporcionar una visión detallada de cómo se detecta la desinformación, los usuarios podrán aprender a reconocerla por sí mismos. Por su parte, los expertos o científicos de diversas áreas también podrán entender mejor sus propios modelos y sus datos, pues tendrán más herramientas que puedan llevar a mejoras en su precisión y efectividad.
No obstante, la IA explicativa tiene todavía mucho recorrido por delante. La mayoría de los modelos actuales que consiguen excelentes resultados se basan en cajas negras, esto es, modelos muy complejos bajo los que operan millones de parámetros numéricos y de los cuales resulta imposible obtener conclusiones y explicaciones. Avanzar hacia otro tipo de modelos u obtener explicaciones de estas cajas negras es un proceso que llevará tiempo, ya que conlleva solucionar importantes desafíos.
Hemos hablado de GPT-4 como un modelo de lenguaje, pero su popularidad ha despertado un discurso que llevaba mucho tiempo siendo territorio de la ciencia ficción, la IA general (Bubeck et al. 2023). Por concisión, una AGI (IA general) es capaz de pensar, aprender y actuar como lo haría un humano. Aunque sigue siendo territorio ficticio, cabe afirmar que la inteligencia artificial por medio del procesado del lenguaje natural lleva tiempo aproximándose a los problemas de manera más generalista. Antes, para resolver una tarea concreta era necesario un modelo especializado para que la máquina fuese competente en ese problema. Por ejemplo, DeepBlue, la máquina que marcó un hito cuando venció a Kasparov al ajedrez en 1997, no podría haber vencido a un jugador novato en un juego de damas o realizado cualquier otra tarea que no fuese jugar al ajedrez. En contraste, la versión más reciente de MuZero (Deac, Weber y Papamakarios 2023) es capaz de, observando las reglas de un juego, aprender automáticamente cómo jugar en un margen de veinticuatro horas, independientemente de si es ajedrez, damas o incluso videojuegos de Atari.
En inteligencia artificial existe el teorema No Free Lunch, que significa que una mejora en el desempeño de una tarea tiene un impacto negativo en otra, pero ¿qué ocurre cuando un modelo es lo suficientemente bueno en muchas tareas? Porque esto es lo que se ha encontrado con los grandes modelos de lenguaje que tanta fascinación y perplejidad producen en la actualidad. En otras palabras, ¿para qué queremos un modelo excelente en un conjunto pequeño de tareas cuando podemos tener un modelo suficientemente bueno en la mayoría de las tareas? Esta es la realidad generalista en la que nos encontramos hoy en día en el campo de la IA, y es el motivo por el que el discurso de la AGI ha vuelto a despertar. GPT-4 muestra competencia humana en un abanico enorme de tareas, así como competencia sobrehumana en otras.
Dado que los grandes modelos de lenguaje solo pueden seguir mejorando con el tiempo, y es probable que también aparezcan otros grandes modelos de visión o audio, su mejora inevitablemente supondrá la obtención de capacidades superiores para generar y apoyar la desinformación. Así, un buen modelo de lenguaje será capaz de generar desinformación cada vez más engañosa al mismo tiempo que tendrá una mayor capacidad para verificar información de manera más fiable. Por desgracia, el desinformador siempre tiene ventaja en este intercambio, pues es el primero en actuar antes de ser verificado.
Uno de los ámbitos en los que la IA está incidiendo de forma más evidente es la privacidad de las personas. Es este un tema que preocupa de forma considerable en el conjunto de la Unión Europea, que en los últimos diez años ha ido implementando y desarrollando distintas iniciativas dirigidas a intentar proteger la privacidad en el contexto del desarrollo de la IA. Dentro de estas últimas, no podemos dejar de señalar dos de ellas: el Reglamento General de Protección de Datos (RGPD) (Comisión Europea 2016) y el Libro Blanco de la IA (Comisión Europea 2020). La inquietud del crecimiento de la IA no solo afecta a la privacidad, sino también a otros derechos fundamentales como la libertad de expresión, la libertad de pensamiento o la no discriminación.
En primer lugar, el Reglamento General de Protección de Datos (RGDP), aprobado el 27 de abril de 2016, en el que se recuerda que tanto el Tratado de Funcionamiento de la Unión Europea como la Carta de los Derechos Fundamentales de la Unión Europea establecen que «toda persona tiene derecho a la protección de los datos de carácter personal que le conciernan». El RGPD desarrolla los distintos principios que deben regir cualquier tratamiento de datos personales al que sea aplicable, así como los derechos del interesado (persona física) y las obligaciones de los responsables (ya sean personas físicas o jurídicas que tratan datos personales).
En segundo lugar, el Libro Blanco de la IA se enmarca en la Estrategia Digital de la Unión Europea. Tanto en el Libro Blanco como en la Estrategia se está estableciendo el marco general de desarrollo de la IA en el ámbito europeo. Este documento fija las bases para el desarrollo de la IA en los próximos años, con especial atención a las implicaciones de este desarrollo en cuanto a los datos personales. Pero los avances normativos en esta materia continúan y ya está más cerca la Ley de Inteligencia Artificial.
La desinformación es otro de los problemas que se han abordado en los últimos años, especialmente vinculada al uso de las redes sociales y la IA para generar y extender este tipo de informaciones, cuestión ya referida en capítulos anteriores de este informe. Por otro lado, también es posible emplear la IA para detectar la expansión de estas desinformaciones, y es posible utilizarla cumpliendo con la normativa europea sobre privacidad y salvaguardando otros derechos fundamentales como la libertad de expresión o de información. Cualquier sistema diseñado para combatir este problema debe ser respetuoso con los principios de protección de datos y privacidad. Para ello es imprescindible que estas herramientas se diseñen desde el inicio observando estos principios. Además, deben tener en cuenta principios de la IA como la explicabilidad, la seguridad o la supervisión humana, en especial cuando puedan tomarse decisiones basadas en el tratamiento de datos que afecten a las personas y sus derechos.
Evidentemente, hay que prestar especial atención a las fuentes de datos que se utilizan para el desarrollo de estas herramientas. Así, por ejemplo, la herramienta FacTeR-Check —para cumplir con su objetivo principal de ayudar durante todo el proceso de verificación, análisis y monitorización de piezas de información falsa o bulos que circulan por las redes sociales— utiliza una base de datos verificada previamente. El acceso a datos para entrenar los algoritmos es el talón de Aquiles de este tipo de herramientas cuando se trata de datos personales. Tendría que verificarse previamente que, por ejemplo, en el caso del análisis dirigido a detectar desinformación, los tuits que se analizan son de usuarios con perfiles públicos o, si son privados, que han dado su consentimiento para su uso con esta finalidad, como establece la normativa de protección de datos. Asimismo, los perfilados o la capacidad de personalización para cada usuario que puede alcanzarse con la IA explicativa deben cumplir con los requisitos de transparencia y explicabilidad que se exigen a los sistemas de IA, y respetar los derechos fundamentales de los ciudadanos.
La desinformación representa un problema que cobra cada vez más importancia. La capacidad de alterar unas elecciones democráticas, de provocar decisiones políticas, de generar alarma entre la población o de provocar una falta de confianza en las instituciones supone un reto con innumerables derivadas. Y aunque no estemos ante un fenómeno nuevo, puesto que podemos encontrar referencias al uso deliberado de información falsa desde hace siglos, la entrada en el terreno de juego de la inteligencia artificial nos sitúa ante un panorama completamente nuevo, y donde las reglas de juego han cambiado para siempre.
El Proyecto CIVIC nos permitió entrar en este terreno y analizar el papel de la IA en la lucha contra la desinformación, pero también su capacidad para generarla y diseminarla. Los avances actuales en IA han proporcionado un abanico de herramientas y posibilidades nunca visto antes. En la actualidad, contamos con herramientas para generar prácticamente cualquier tipo de contenido multimedia con características muy realistas, lo que hace verdaderamente complicado distinguir el contenido real del generado por estas herramientas. La única manera de luchar contra la desinformación cuando se emplean estas herramientas es, precisamente, haciendo uso de los últimos avances de inteligencia artificial, tomando una posición de ventaja.
Herramientas como FacTeR-Check, desarrollada por los investigadores del Proyecto CIVIC, muestran que es posible el empleo de modelos avanzados de IA para construir herramientas encaminadas a detectar información falsa. Gracias a las características de estos modelos, como la multilingualidad o su capacidad para considerar el contexto y la semántica del lenguaje, permiten ofrecer soluciones donde algunas barreras, como la del idioma, se diluyen. Este tipo de herramientas suponen y supondrán una ayuda fundamental para organizaciones de fact-checking, ampliando su rango de acción y cobertura, pudiendo analizar una mayor cantidad de desinformación que circula por redes sociales y otros medios de comunicación.
Los vertiginosos avances que se vienen produciendo en los últimos años y meses en inteligencia artificial evidencian también que estamos lejos de haber resuelto el problema. Resulta evidente, más que nunca, que es necesario continuar líneas de investigación como la del Proyecto CIVIC. Poner la inteligencia artificial al servicio de la sociedad y de aquellos que luchan contra la desinformación no será posible sin un gran número de investigadores y empresas que se apoyen y colaboren para que la balanza, entre un uso maligno y benigno de esta tecnología, se incline siempre hacia el lado correcto. Es de esperar que en los próximos años observemos un uso de la desinformación por parte de determinados grupos con el fin de negar y entorpecer la lucha contra problemas a los que debemos hacer frente, como el cambio climático. Por nuestra parte, seguiremos trabajando para que la inteligencia artificial esté siempre al servicio de la sociedad, para mejorarla y ofrecer soluciones, o al menos ayudar, ante los problemas presentes y futuros.
Akbik, Alan, Tanja Bergmann, Duncan Blythe, Kashif Rasul, Stefan Schweter y Roland Vollgraf. «FLAIR: An Easy-to-Use Framework for State-of-the-Art NLP». En Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations). Minneapolis, Minnesota (2019): 54-59. https://aclanthology.org/N19-4010 (consulta 8 de junio de 2023).
Arik, Sercan, Jitong Chen, Kainan Peng, Wei Ping y Yanqi Zhou. «Neural voice cloning with a few samples». En Advances in neural information processing systems 31 (2018).
Avraamidou, Maria y Eftychios Eftychiou. «Migrant Racialization on Twitter during a border and a pandemic crisis». En International Communication Gazette 84 (3) (2022): 227-251.
Bastos, Marco T. y Dan Mercea. «The Brexit Botnet and User-Generated Hyperpartisan News». En Social Science Computer Review 37 (1) (2019): 38-54.
Bowman, Samuel R., Gabor Angeli, Christopher Potts y Christopher D. Manning. «A large annotated corpus for learning natural language inference». En Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon, Portugal (2015): 632-642. https://aclanthology.org/D15-1075 (consulta 8 de junio de 2023).
Boyd, Adriane. explosion/spaCy: v3.2.6: Bug fixes for Pydantic and pip, 2023. https://zenodo.org/record/7970450 (consulta 8 de junio de 2023).
Brown, Tom, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D. Kaplan, Prafulla Dhariwal, Arvind Neelakantan, et al. «Language Models are Few-Shot Learners. En Larochelle, Hugo, Marc'Aurelio Ranzato, Raia Hadsell, Maria-Florina Balcan y Hsuan-Tien Lin (Hrsg.). Advances in Neural Information Processing Systems, Band 33 (2020): 1877-1901. https://proceedings.neurips.cc/paper_files/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf.
Bubeck, Sébastien, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, et al. «Sparks of Artificial General Intelligence: Early experiments with GPT-4». En arXiv, 2023.
Castillo Small, Allison Lucia. United in misogyny: The manosphere - far-right nexus and marginalized masculinities, 2022. https://dspace.cuni.cz/handle/20.500.11956/178392 (consulta 1 de julio de 2023).
Comisión Europea. LIBRO BLANCO sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza, 2020. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=COM%3A2020%3A65%3AFIN (consulta 4 de julio de 2023).
Comisión Europea. Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (Texto pertinente a efectos del EEE). Band 119. OJ L. http://data.europa.eu/eli/reg/2016/679/oj/spa (consulta 4 de julio de 2023).
Conneau, Alexis, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer y Veselin Stoyanov. «Unsupervised Cross-lingual Representation Learning at Scale». En Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (2020): 8440-8451. https://aclanthology.org/2020.acl-main.747 (consulta 8 de junio de 2023).
Conneau, Alexis, Ruty Rinott, Guillaume Lample, Adina Williams, Samuel Bowman, Holger Schwenk y Veselin Stoyanov. «XNLI: Evaluating Cross-lingual Sentence Representations». En Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Brussels, Belgium (2018): 2475-2485. https://aclanthology.org/D18-1269 (consulta 8 de junio de 2023).
Consuegra-Fernández, Marta. «El movimiento antivacunas: un aliado de la COVID-19». En Revista Internacional de Pensamiento Político 15 (2020): 127-138.
Cushman, Ellery G. y Kiril Avramov. «Eurosodom: Specifics of Weaponized Sexuality and Gender-Based Narratives in Contemporary Russian and Pro-Russian Disinformation». En Revista ICONO14 Revista científica de Comunicación y Tecnologías emergentes 19 (1) (2021): 123-154.
Elharrouss, Omar, Noor Almaadeed, Somaya Al-Maadeed y Younes Akbari. «Image Inpainting: A Review». En Neural Process. Lett. 51 (2) (2020): 2007-2028.
Elmas, Tuğrulcan, Rebekah Overdorf y Karl Aberer. Tactical Reframing of Online Disinformation Campaigns Against The Istanbul Convention (2021). http://arxiv.org/abs/2105.13398 (consulta 1 de julio de 2023).
Fallis, Don. «The Varieties of Disinformation». En Floridi, Luciano y Phyllis Illari (Hrsg.). The Philosophy of Information Quality, Synthese Library. Cham (2014a): 135-161. https://doi.org/10.1007/978-3-319-07121-3_8 (consulta 1 de julio de 2023).
Fallis, Don. «The Varieties of Disinformation». En Floridi, Luciano y Phyllis Illari (Hrsg.). The Philosophy of Information Quality, Synthese Library. Cham (2014b): 135-161. https://doi.org/10.1007/978-3-319-07121-3_8 (consulta 8 de junio de 2023).
Fetzer, James H. «Disinformation: The Use of False Information». En Minds and Machines 14 (2) (2004): 231-240.
Freelon, Deen y Chris Wells. «Disinformation as Political Communication». En Political Communication 37 (2) (2020): 145-156.
Gomez Rodriguez, Manuel, Krishna Gummadi y Bernhard Schoelkopf. «Quantifying Information Overload in Social Media and Its Impact on Social Contagions». En Proceedings of the International AAAI Conference on Web and Social Media 8 (1) (2014): 170-179.
Granik, Mykhailo y Volodymyr Mesyura. «Fake news detection using naive Bayes classifier». En 2017 IEEE First Ukraine Conference on Electrical and Computer Engineering (UKRCON) (2017): 900-903.
Grootendorst, Maarten. MaartenGr/KeyBERT: BibTeX, 2021. https://zenodo.org/record/4461265 (consulta 8 de junio de 2023).
Guille, Adrien, Hakim Hacid, Cecile Favre y Djamel A. Zighed. «Information diffusion in online social networks: a survey». En ACM SIGMOD Record 42 (2) (2013): 17-28.
Guo, Zhijiang, Michael Schlichtkrull y Andreas Vlachos. «A Survey on Automated Fact-Checking». En Transactions of the Association for Computational Linguistics 10 (2022): 178-206.
Hu, Edward J., Yelong Shen, Phillip Wallis, Zeyuan Allen-Zhu, Yuanzhi Li, Shean Wang, Lu Wang y Weizhu Chen. «LoRA: Low-rank adaptation of large language models». En arXiv, 2021. preprint arXiv:2106.09685.
Hu, Junjie, Sebastian Ruder, Aditya Siddhant, Graham Neubig, Orhan Firat y Melvin Johnson. XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalization, 2020a. http://arxiv.org/abs/2003.11080 (consulta 8 de junio de 2023).
Hu, Junjie, Sebastian Ruder, Aditya Siddhant, Graham Neubig, Orhan Firat y Melvin Johnson. XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalization, 2020b. http://arxiv.org/abs/2003.11080 (consulta 8 de junio de 2023).
Huertas-García, Álvaro, Javier Huertas-Tato, Alejandro Martín y David Camacho. «Countering Misinformation Through Semantic-Aware Multilingual Models». En Yin, Hujun, David Camacho, Peter Tino, Richard Allmendinger, Antonio J. Tallón-Ballesteros, Ke Tang, Sung-Bae Cho, Paulo Novais y Susana Nascimento (Hrsg.). Intelligent Data Engineering and Automated Learning – IDEAL 2021, Lecture Notes in Computer Science. Cham (2021): 312-323.
Ireton, Cherilyn y Julie Posetti. Journalism, fake news & disinformation: handbook for journalism education and training, 2018.
Jin, Fang, Edward Dougherty, Parang Saraf, Yang Cao y Naren Ramakrishnan. «Epidemiological modeling of news and rumors on Twitter». En Proceedings of the 7th Workshop on Social Network Mining and Analysis, SNAKDD ’13. New York, NY, USA (2013): 1-9. https://doi.org/10.1145/2501025.2501027 (consulta 1 de julio de 2023).
Kwon, Sejeon, Meeyoung Cha, Kyomin Jung, Wei Chen y Yajun Wang. «Prominent Features of Rumor Propagation in Online Social Media». En 2013 IEEE 13th International Conference on Data Mining (2013): 1103-1108.
Lee, Kyumin, Steve Webb y Hancheng Ge. «Characterizing and automatically detecting crowdturfing in Fiverr and Twitter». En Social Network Analysis and Mining 5 (2015).
Lewandowsky, Stephan. «Climate Change Disinformation and How to Combat It». En Annual Review of Public Health 42 (1) (2021): 1-21.
Li, Haoran, Dadi Guo, Wei Fan, Mingshi Xu, Jie Huang, Fanpu Meng y Yangqiu Song. «Multi-step Jailbreaking Privacy Attacks on ChatGPT». En arXiv, 2023.
Liu, Hongfei, Wentong Liu, Vignesh Yoganathan y Victoria-Sophie Osburg. «COVID-19 information overload and generation Z’s social media discontinuance intention during the pandemic lockdown». En Technological Forecasting and Social Change 166 (2021): 120600.
Liu, Yang y Yi-Fang Wu. «Early Detection of Fake News on Social Media Through Propagation Path Classification with Recurrent and Convolutional Networks». En Proceedings of the AAAI Conference on Artificial Intelligence 32 (1) (2018a). https://ojs.aaai.org/index.php/AAAI/article/view/11268 (consulta 1 de julio de 2023).
Liu, Yang y Yi-Fang Wu. «Early Detection of Fake News on Social Media Through Propagation Path Classification with Recurrent and Convolutional Networks». En Proceedings of the AAAI Conference on Artificial Intelligence 32 (1) (2018b). https://ojs.aaai.org/index.php/AAAI/article/view/11268 (consulta 1 de julio de 2023).
Martín, Alejandro, Javier Huertas-Tato, Álvaro Huertas-García, Guillermo Villar-Rodríguez y David Camacho. «FacTeR-Check: Semi-automated fact-checking through semantic similarity and natural language inference». En Knowledge-Based Systems 251 (2022a): 109265.
Martín, Alejandro, Javier Huertas-Tato, Álvaro Huertas-García, Guillermo Villar-Rodríguez y David Camacho. «FacTeR-Check: Semi-automated fact-checking through Semantic Similarity and Natural Language Inference». En arXiv:2110.14532 [cs], (2022b). http://arxiv.org/abs/2110.14532 (consulta 8 de abril de 2022).
Mejias, Ulises y Nikolai Vokuev. «Disinformation and the media: the case of Russia and Ukraine». En Media, Culture & Society (2017):0: 016344371668667.
Miranda, Sebastião, David Nogueira, Afonso Mendes, Andreas Vlachos, Andrew Secker, Rebecca Garrett, Jeff Mitchel y Zita Marinho. «Automated Fact Checking in the News Room. En The World Wide Web Conference, WWW ’19. New York, NY, USA (2019): 3579-3583. https://dl.acm.org/doi/10.1145/3308558.3314135 (consulta 1 de julio de 2023).
Mirsky, Yisroel y Wenke Lee. «The Creation and Detection of Deepfakes: A Survey». En ACM Comput. Surv. 54 (1) (2021): 1-41.
Mundo Asperger (S.F.): El autismo no necesita ni tiene cura. https://mundoasperger.com/el-autismo-no-necesita-ni-tiene-cura/ (consulta 1 de julio de 2023).
Newman, Nic, Richard Fletcher, Kirsten Eddy, Craig T. Robertson, y Rasmus Kleis Nielsen. Reuters Institute Digital News Report 2023 (2023). https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2023-06/Digital_News_Report_2023.pdf.
Nie, Yixin, Adina Williams, Emily Dinan, Mohit Bansal, Jason Weston y Douwe Kiela. «Adversarial NLI: A New Benchmark for Natural Language Understanding». En Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (2020): 4885-4901. https://aclanthology.org/2020.acl-main.441 (consulta 8 de junio de 2023).
Niño González, José Ignacio, Mario Barquero Cabrero y Enrique García García. «Opinión pública e infoxicación en las redes: los fundamentos de la post-verdad». En Vivat Academia (139) (2017): 83-94.
Noguera Vivo, José Manuel, Maria del Mar Grandío, Guillermo Villar Rodríguez, Alejandro Martín y David Camacho Fernández. «Desinformación y vacunas en redes: comportamiento de los bulos en Twitter». En Revista Latina de Comunicación Social (81) (2023): 3.
Nova I. P.. «Pàmies intenta “sacar tajada” del coronavirus: “El MMS lo cura en días”». Redacción Médica. https://www.redaccionmedica.com/secciones/sanidad-hoy/paimes-intenta-sacar-tajada-del-coronavirus-el-mms-lo-cura-en-dias--9382 (consulta 1 de julio de 2023).
Ramesh, Aditya, Prafulla Dhariwal, Alex Nichol, Casey Chu y Mark Chen. «Hierarchical Text-Conditional Image Generation with CLIP Latents». En arXiv, 2022.
Ray, Partha Pratim. «ChatGPT: A comprehensive review on background, applications, key challenges, bias, ethics, limitations and future scope». En Internet of Things and Cyber-Physical Systems 3 (2023): 121-154.
Reyes Moriana, Encarnación. Fake News y posverdad: análisis de las noticias falsas de Vox en las elecciones autonómicas andaluzas de 2018 (2019). https://idus.us.es/handle/11441/89329 (consulta 1 de julio de 2023).
Rodríguez Pérez, Carlos. «No diga fake news, di desinformación: una revisión sobre el fenómeno de las noticias falsas y sus implicaciones». En Comunicación (40 (enero-junio)) (2019): 65-74.
Rombach, Robin, Andreas Blattmann, Dominik Lorenz, Patrick Esser y Björn Ommer. «High-Resolution Image Synthesis With Latent Diffusion Models». En (2022): Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR) (2022): 10684-10695.
Ruffo, Giancarlo, Alfonso Semeraro, Anastasia Giachanou y Paolo Rosso. «Surveying the Research on Fake News in Social Media: a Tale of Networks and Language». En arXiv:2109.07909 [cs], 2021. http://arxiv.org/abs/2109.07909 (consulta 28 de septiembre de 2021).
Sádaba-Chalezquer, Charo y Ramón Salaverría-Aliaga. Combatir la desinformación con alfabetización mediática: análisis de las tendencias en la Unión Europea, 2023. https://dadun.unav.edu/handle/10171/63432 (consulta 1 de julio de 2023).
Salaverría, Ramón, Nataly Buslón, Fernando López-Pan, Bienvenido León, Ignacio López-Goñi y María-Carmen Erviti. «Desinformación en tiempos de pandemia: tipología de los bulos sobre la Covid-19». En El Profesional de la Información 29 (3) (2020a). https://revista.profesionaldelainformacion.com/index.php/EPI/article/view/epi.2020.may.15 (consulta 8 de junio de 2023).
Salaverría, Ramón, Nataly Buslón, Fernando López-Pan, Bienvenido León, Ignacio López-Goñi y María-Carmen Erviti. «Desinformación en tiempos de pandemia: tipología de los bulos sobre la Covid-19». En El Profesional de la Información 29 (3) (2020b). https://revista.profesionaldelainformacion.com/index.php/EPI/article/view/epi.2020.may.15 (consulta 1 de julio de 2023).
Saurwein, Florian y Charlotte Spencer-Smith. «Combating Disinformation on Social Media: Multilevel Governance and Distributed Accountability in Europe». En Digital Journalism 8 (6) (2020): 820-841.
Scheer, Hermann. Energy Autonomy: The Economic, Social and Technological Case for Renewable Energy, 2012.
Shu, Kai, Amrita Bhattacharjee, Faisal Alatawi, Tahora H. Nazer, Kaize Ding, Mansooreh Karami y Huan Liu. «Combating disinformation in a social media age». En WIREs Data Mining and Knowledge Discovery 10 (6) (2020a): e1385.
Shu, Kai, Suhang Wang y Huan Liu. «Understanding User Profiles on Social Media for Fake News Detection». En 2018 IEEE Conference on Multimedia Information Processing and Retrieval (MIPR) (2018): 430-435.
Shu, Kai, Xinyi Zhou, Suhang Wang, Reza Zafarani y Huan Liu. «The role of user profiles for fake news detection». En Proceedings of the 2019 IEEE/ACM International Conference on Advances in Social Networks Analysis and Mining, ASONAM ’19. New York, NY, USA (2020b): 436-439. https://dl.acm.org/doi/10.1145/3341161.3342927 (consulta 5 de julio de 2023).
Thakur, Rahul y Rajesh Rohilla. «Recent advances in digital image manipulation detection techniques: A brief review». En Forensic Sci. Int. 312(2020): 110311.
Thorne, James, Andreas Vlachos, Christos Christodoulopoulos y Arpit Mittal. «FEVER: a Large-scale Dataset for Fact Extraction and VERification». En Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers). New Orleans, Louisiana (2018): 809-819. https://aclanthology.org/N18-1074 (consulta 8 de junio de 2023).
Vallas, Steven y Juliet Schor. «What Do Platforms Do? Understanding the Gig Economy». En Annual Review of Sociology 46 (2020).
Vaswani, Ashish, Nosm Shazeer, Niki Parmar, Jakob. Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser y Illia Polosukhin. «Attention is All you Need». En Advances in Neural Information Processing Systems, Band 30 (2017). https://proceedings.neurips.cc/paper_files/paper/2017/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html (consulta 5 de julio de 2023).
Villar-Rodríguez, Guillermo, Mónica Souto-Rico y Alejandro Martín. «Virality, only the tip of the iceberg: ways of spread and interaction around COVID-19 misinformation in Twitter». En Communication & Society(2022): 239-256.
Vosoughi, Soroush, Deb Roy y Sinan Aral. «The spread of true and false news online». En Science 359 (6380) (2018): 1146-1151.
Wang, Wenhui, Furu Wei, Li Dong, Hangbo Bao, Nan Yang y Ming Zhou. «MiniLM: Deep Self-Attention Distillation for Task-Agnostic Compression of Pre-Trained Transformers». En Advances in Neural Information Processing Systems, Band 33 (2020): 5776-5788. https://proceedings.neurips.cc/paper/2020/hash/3f5ee243547dee91fbd053c1c4a845aa-Abstract.html (consulta 8 de junio de 2023).
Williams, Adina, Nikita Nangia y Samuel R. Bowman. A Broad-Coverage Challenge Corpus for Sentence Understanding through Inference, 2018. http://arxiv.org/abs/1704.05426 (consulta 8 de junio de 2023).
Zeng, Xia, Amani S. Abumansour y Arkaitz Zubiaga. «Automated fact-checking: A survey». En Language and Linguistics Compass 15 (10) (2021): e12438.
Zhang, Jerry, Darrell Carpenter y Myung Ko. «Online astroturfing: A theoretical perspective». En Band 4 (2013): 2559-2565.
5Página de ChatGPT: https://chat.openai.com/
6Página de DALL-E 2: https://labs.openai.com/
7Stable Diffusion en Huggingface: https://huggingface.co/CompVis/stable-diffusion-v1-4
8Herramienta gratuita de inpainting para eliminar objetos:https://theinpaint.com/
© Fundación BBVA,
.
Todos los derechos reservados.