La desinformación constituye un ejercicio muy antiguo que ha proliferado con el desarrollo de los medios de comunicación. No obstante, hoy en día, en un mundo global y digitalizado, se produce la proliferación de noticias falsas de forma instantánea y sin fronteras, afectando a los procesos políticos y sociales.
Una noticia falsa, conocida como Fake News, consiste en una información ficticia difundida con la apariencia de una noticia, creada con el propósito deliberado de confundir a la población. Existen múltiples motivos para quienes las crean y reproducen, desde simples bromas o parodias, hasta controversias ideológicas o incluso fraudes económicos. Además, está el llamado sesgo de confirmación, que es la tendencia natural de las personas a favorecer, buscar, interpretar y recordar la información que confirma sus propias creencias o hipótesis, dando una consideración desproporcionadamente menor a las posibles alternativas.
El uso de noticias falsas se ha convertido en un factor de desconfianza hacia los medios de comunicación, la política y las instituciones establecidas en todo el mundo. Y aunque las nuevas tecnologías, como la inteligencia artificial (IA), podrían empeorar aún más las cosas, también pueden utilizarse para combatir la desinformación.
¿Qué tan fácil te sería hacerte pasar por Andrés Manuel, el presidente de México? Hasta hace poco, eso requería imitar físicamente su voz. Y aunque fueras muy bueno en ello, casi seguro que no representaría un peligro para la sociedad. Pero la tecnología ha cambiado eso. Ahora puede hacer que cualquier persona diga cualquier cosa de forma fácil y precisa a través de la IA. No hay más que utilizar el servicio de un programa online para grabar una frase y escuchar lo que deseemos con la voz de un personaje famoso.
Los programas de este tipo suelen llamarse deep fakes: sistemas de IA que adaptan el audio, las imágenes y los vídeos para hacer que la gente diga y haga cosas que nunca hizo.
Con estas tecnologías podría iniciarse una nueva era de noticias falsas y desinformación en línea. En ese sentido, el informático Hany Farid, del Dartmouth College (EE.UU.), que detecta vídeos falsos, afirmó en 2017 que la rápida proliferación de nuevas técnicas de manipulación ha provocado una “Guerra Campal”[1]. Imagínate cómo serán las elecciones cuando ya no podamos confiar en el vídeo y el audio. Pero algunos investigadores están plantando cara y demostrando que la IA también puede utilizarse para el bien.
Una de las principales aplicaciones de la IA para ayudar a combatir el problema de la desinformación es conocido como “Verificador de hechos”, el cual es una herramienta de software para ayudar a los periodistas y a los verificadores de hechos a detectar y combatir las noticias falsas.
En la actualidad, las imágenes y los vídeos pueden manipularse fácilmente, ya sea con un simple Photoshop o con técnicas más complejas como las deep fakes. Los sistemas de “verificadores de hechos” en su primera etapa pueden aplicar ingeniería inversa a esos cambios y utilizar algoritmos para ayudar a los periodistas a detectar contenidos manipulados[2].
La parte más compleja de estas herramientas es comprobar si el contenido en sí hace afirmaciones falsas o no. En este caso, vinculan las historias que han sido probadas como falsas por los verificadores de hechos humanos, y buscan páginas en línea o publicaciones en las redes sociales con palabras y afirmaciones similares. Las herramientas pueden detectar qué noticias falsas tienen la misma raíz y permitir que los periodistas las investiguen. Esto se logra utilizando varios algoritmos de IA, como el procesamiento del lenguaje natural[3].
Sin embargo, detectar las noticias falsas no es sólo cuestión de encontrar afirmaciones falsas, sino también de analizar cantidades masivas de patrones de intercambio en las redes sociales. Las investigaciones muestran que las noticias falsas se comparten en línea de forma diferente a las noticias reales. Por ejemplo, las noticias falsas pueden tener muchos más “shares” qué “likes” en Facebook, mientras que las publicaciones normales tienden a tener más “likes” que “shares”. Al detectar este tipo de patrones, la IA puede asignar una puntuación de credibilidad a una noticia[4].
Esto deja, por supuesto, una pregunta más importante: ¿puede la tecnología resolver realmente el problema de las fake news? No se trata sólo de detectar noticias falsas. También es un problema de confianza y de falta de pensamiento crítico. La gente está perdiendo la confianza en los medios de comunicación tradicionales y en las instituciones, y lo que es peor la disolución de las fronteras entre la mentira y la verdad, como ocurre en la miniserie Years and Years (Miniserie de TV) (2019) – Filmaffinity[5] en donde la inteligencia artificial conduce los destinos de una humanidad que, incapaz de discernir lo que le conviene, reacciona instintivamente, sometida a emociones manipuladas por los medios masivos de comunicación y eso no es algo que pueda mitigarse únicamente con la tecnología. Se requiere del esfuerzo de todas las partes interesadas.
[1] Gibney, E. The scientist who spots fake videos. Nature (2017) The scientist who spots fake videos | Nature
[2] S. Lyu, Deepfake Detection: Current Challenges and Next Steps | IEEE Conference Publication 2020 IEEE International Conference on Multimedia & Expo Workshops (ICMEW), 2020, pp. 1-6
[3] C. K. Hiramath and G. C. Deshpande, Fake News Detection Using Deep Learning Techniques | IEEE Conference Publication, 2019 1st International Conference on Advances in Information Technology (ICAIT), pp. 411-415
[4] Liu, Y., & Wu, Y.-F. (2018). Early Detection of Fake News on Social Media Through Propagation Path Classification with Recurrent and Convolutional Networks. Proceedings of the AAAI Conference on Artificial Intelligence, 32(1). https://doi.org/10.1609/aaai.v32i1.11268