Descripción del proyecto
Según Eurostat, en 2011, el 36% de la población europea de entre 16 y 74 años había participado en las redes sociales en los últimos tres meses, cifra que aumentó al 54% en 2019, antes de la crisis del COVID-19. Las medidas de contención social para mitigar la pandemia han provocado un nuevo aumento del uso de las redes sociales. Lo que en sí mismo puede ser una herramienta muy beneficiosa a nivel personal y laboral, facilita, al mismo tiempo, fenómenos como la difusión de fake news, debido a la inmediatez de los mensajes emitidos y la hiperconectividad social que permiten estas redes.De hecho, según el Eurobarómetro 2018, el 37% de los ciudadanos europeos dijo encontrarse con noticias falsas a diario o casi a diario, y el 83% las percibió como un peligro para la democracia. Esta preocupación está estrechamente relacionada con las campañas de desinformación que se han detectado durante algunos procesos electorales en Europa o Estados Unidos, entre otros, durante los cuales se promovió la difusión de noticias falsas orientadas a la polarización ideológica.La pandemia del COVID-19, además de cobrarse numerosas vidas humanas en todo el mundo y provocar una crisis económica sin precedentes en tiempos de paz, ha mostrado al mundo otro de los fenómenos perniciosos que se pueden dar en las redes sociales y también en los medios de comunicación tradicionales, la infodemia. Los estudios muestran cómo a principios de la década de 2020 se difundieron en las redes sociales millones de mensajes con información poco fiable sobre la pandemia que precedían a los picos de contagio.Existen soluciones para la detección de noticias falsas, manipulaciones de imágenes o la predicción de la propagación de infodemias basadas en Inteligencia Artificial, como el Procesamiento del Lenguaje Natural o el Deep Learning. Si bien estos modelos funcionan muy bien en la clasificación de textos e imágenes y en el reconocimiento y predicción de patrones en grafos, generan modelos difíciles de interpretar para los humanos. El problema se agrava por los sesgos de los modelos, como las clasificaciones o predicciones sesgadas en función del sexo, la edad o el idioma de los humanos que generan o difunden los mensajes o las imágenes.Al investigar y diseñar herramientas para combatir las noticias falsas y las campañas de desinformación de forma automatizada, corremos el riesgo de que los modelos incurran en este tipo de sesgos o, lo que es peor, no respeten adecuadamente los derechos de libertad de expresión, prensa e información de todos los ciudadanos. Por ello, es necesario investigar y diseñar algoritmos de IA basados en reglas que permitan crear algoritmos y modelos éticos por diseño. En este sentido, la Inteligencia Artificial eXplicable se presenta como una posible solución para proporcionar metodologías que permitan crear algoritmos y modelos de IA éticos.El centro tecnológico AIR Institute y la empresa Eurostar Mediagroup, experta en medios de comunicación, contenidos audiovisuales y estudios sociológicos, proponen el proyecto multidisciplinar EthicalNews, cuyo objetivo principal es investigar y diseñar un nuevo marco de Procesamiento Ético del Lenguaje Natural para combatir la difusión de noticias falsas, infodemias y campañas de desinformación, considerando los aspectos éticos, legales y sociológicos implicados y respetando las libertades de expresión, prensa e información de los ciudadanos.La investigación propuesta está especialmente alineada con los objetivos de recuperación y resiliencia, ya que las fake news y las infodemias tienen un efecto negativo en los niveles de contagio de la población, que ahora es más peligroso tras las dudas generadas en torno a algunas vacunas. Combatir la desinformación supone cuidar la salud de los ciudadanos y acelerar la recuperación en sectores tan castigados como el turismo, donde España es el país con mayor peso en el PIB y que ha sufrido una caída del 12,4% al 5,5% en 2020.