IA, fake news y deep fakes: desafíos para combatir la desinformación
En la era de la transformación digital, las noticias falsas y los contenidos manipulados con inteligencia artificial para crear materiales engañosos que parecen reales, se han convertido en una preocupación global: pueden influir en la opinión pública, afectar elecciones y generar importantes confusiones en la sociedad. En este post exploramos la problemática y conversamos con referentes de iniciativas locales para combatir la desinformación, tales como Chequeado y Ciencia Anti Fake News.
La desinformación es una de las principales problemáticas en el campo de la comunicación en la actualidad. En un mundo cada vez más digital la inteligencia artificial (IA) está transformando el panorama de la información. Gracias a su capacidad para procesar y generar contenido rápidamente, la IA se ha convertido en una herramienta poderosa que, paradójicamente, puede ser utilizada tanto para crear noticias falsas como para identificar y combatir esta desinformación.
Un tipo particular de contenido que apunta a desinformar es el de las fake news, noticias o información falsa que se presenta como si fuera verdadera, aunque en algunos casos no son completamente falsas ya que pueden estar basadas en algunos hechos reales pero manipulados para distorsionar la realidad e incluso generar emociones extremas que contribuyen a viralizar el contenido. En general, se difunden a través de medios de comunicación, redes sociales o plataformas digitales.
Cabe recalcar que en general las desinformaciones no son blanco o negro, sino que existen grises. A veces el dato es verdadero pero el contexto es falso o, al contrario, el contexto es verdadero pero el dato es falso. Las redes sociales se manejan con la lógica de la inmediatez, lo que hace que la información se fragmente para poder llamar la atención del usuario. Eso implica muchas veces que, en el afán de explicar todo en un titular que sea corto, atractivo y llamativo, se termine desvirtuando la realidad. Se busca generar un clickbait para conseguir más visitas, pero no siempre la intencionalidad está puesta en la desinformación, sino que esta termina siendo una consecuencia de la implementación de una estrategia de comunicación.
Al mismo tiempo, aparecen contenidos mucho más difíciles de crear, denominados deep fakes, que consisten en audio, video o imagen manipulados con IA y ciencia de datos para crear materiales engañosos que parecen reales. El término es una combinación de «aprendizaje profundo» (deep learning) y «falso» (fake). Esta tecnología puede superponer el rostro de una persona en el cuerpo de otra, o alterar sonidos para que alguien diga algo que nunca dijo, haciendo el contenido hiperrealista (como se ha apreciado principalmente en videos, imágenes y audios distorsionados de figuras públicas).

Una de las imagenes alteradas más famosas fue la que publicó Kate Middleton, miembro de la corona británica.
¿Cómo se logra esta manipulación? Se utilizan algoritmos de aprendizaje profundo y modelos de redes neuronales entrenados con grandes cantidades de datos (imágenes, videos, audios) para analizar, sintetizar y aprender las características de una persona y poder recrearla. Lo sorprendente es que a través de un proceso de iteración, un modelo aprende a generar réplicas falsas y otro detecta las falsificaciones, resultando en una capacidad cada vez mayor para crear resultados muy realistas.
De este modo la necesidad de chequear la autenticidad del contenido, verificar las fuentes y los hechos (fact-checking), analizar más profundamente el material difundido y poder discernir lo verdadero de lo falso, se convirtió en una tarea desafiante y compleja, donde la supervisión humana es irremplazable y la tecnología puede ser una gran aliada.
Chequeado: iniciativas que incluyen IA para una ciudadanía activa y crítica
Desde el Blog Predictivos dialogamos con miembros de los programas de Medios, Innovación y Comunicación de Chequeado, una organización sin fines de lucro, no partidaria, dedicada a ayudar a las personas a tomar decisiones informadas combinando periodismo de verificación, educación y tecnología cívica para elevar la calidad del debate público y contribuir a democracias sólidas.
En cuanto al modo en que la IA está transformando el proceso de chequeo de información, los especialistas de Chequeado señalaron que la inteligencia artificial generativa está transformando muchos aspectos del trabajo periodístico y, en el caso del fact-checking, abre oportunidades concretas para mejorar la velocidad y eficacia de sus procesos. “En Chequeado venimos trabajando desde hace tiempo para convertir esta tecnología en una aliada en la lucha contra la desinformación y lo hacemos siempre con una premisa clara: la supervisión humana es irremplazable. Con nuestro equipo de Innovación desarrollamos herramientas que ayudan a que la redacción trabaje de forma más ágil y efectiva: desde asistentes para redactar hilos o guiones de video, hasta soluciones para procesar bases de datos o actualizar artículos con nueva información”, puntualizan.
Estas herramientas son abiertas a colegas por el equipo, para que más medios y organizaciones puedan beneficiarse. Para desarrollar este tipo de herramientas, Chequeado atraviesa un proceso iterativo y colaborativo con expertos del dominio para mejorar los prompts y sobre todo para evaluar su rendimiento. “Nos apoyamos en los puntos fuertes de estos sistemas: conversión entre formatos, tareas de razonamiento sencillas, la posibilidad de escalar rápidamente y nos enfocamos en la experimentación con ejemplos concretos”, postulan los especialistas.
Teniendo en cuenta que en los últimos años el contenido informativo cambió radicalmente y gran parte de la ciudadanía se informa en las redes sociales, especialmente con contenidos audiovisuales, que suelen estar en formatos breves, fragmentados y virales, Chequeado adapta sus estrategias para responder a ese escenario: “Producimos hilos, placas, videos cortos, guiones para Reels o TikTok, y contenidos pensados específicamente para estas plataformas que hagan dinámica, atractiva y accesible la evidencia. Y capacitamos a comunicadores, docentes y referentes comunitarios para que puedan detectar así como frenar la desinformación en sus propios entornos”.
En este contexto, la IA y la ciencia de datos se vuelven herramientas muy valiosas. Particularmente en Chequeado utilizan IA generativa para acelerar tareas repetitivas o estructuradas —como redactar borradores de hilos o adaptar artículos para distintos formatos— y también para trabajar con bases de datos complejas. Estos avances, permiten al periodista o comunicador enfocarse en las partes críticas del proceso.
Los primeros pasos de esta ONG con inteligencia artificial fueron en 2015, cuando utilizaron modelos de aprendizaje automático para detectar frases chequeables en el discurso de líderes políticos, lo que aceleraba el proceso de verificación y posterior difusión de ese chequeo. Luego, en 2017 implementaron aprendizaje profundo para detectar la similaridad semántica entre frases y a partir de 2018 recurrieron a modelos de atención para la transcripción automática de audios y videos.
Un claro ejemplo de ello es la Guía de inteligencia artificial generativa en redacciones de fact-checking, que surgió como parte del trabajo del Laboratorio de Innovación de Chequeado. “Durante nueve meses experimentamos de forma sistemática con herramientas de IA generativa aplicadas al trabajo cotidiano de nuestra redacción: desde la escritura de hilos y la actualización de notas, hasta el análisis de datos, la creación de guiones para videos y la simplificación de conceptos complejos”.
El objetivo principal del proyecto es entender cómo esta tecnología puede ayudarnos a hacer más eficiente el trabajo sin comprometer la calidad ni el rigor periodístico mediante un recurso práctico con ejemplos y recomendaciones. “Queríamos evaluar qué tareas pueden automatizarse (y cuáles no), qué modelos funcionan mejor para cada caso de uso y qué estrategias de prompting dan buenos resultados. También nos propusimos compartir esos aprendizajes con otros colegas del ecosistema periodístico y de verificación, en línea con nuestra convicción de que la colaboración y el acceso abierto fortalecen a todo el sector”, aclara el equipo de Innovación. Y concluyen que en un contexto de cambio acelerado, es clave compartir lo que aprendemos para que más organizaciones puedan aprovechar estas herramientas de forma crítica, responsable y efectiva.
Al mismo tiempo, desarrollan diversas herramientas y programas para acompañar a la ciudadanía en este proceso, tales como El Explorador (chatbot experimental entrenado para responder preguntas con el archivo de Chequeado), El Chequeador (una plataforma web pensada para periodistas, fact-checkers y educadores que enfrentan desinformación viral) y desde el área de Educación, impulsan AMI en acción, una plataforma abierta que promueve la alfabetización mediática e informacional dirigida a toda la comunidad educativa. A su vez, trabajan en proyectos colaborativos de formación como por ejemplo la Red latinoamericana de formadores en fact-checking, la cual promueve la enseñanza del fact-checking en universidades como una herramienta clave para fortalecer el pensamiento crítico.
“Desde nuestro Laboratorio de IA seguimos explorando el uso de tecnologías emergentes para mejorar procesos internos de nuestra redacción y abrir nuevas formas de comunicar información verificada. Todos estos proyectos comparten el mismo propósito: promover el pensamiento crítico y acercar herramientas concretas para que más personas puedan detectar desinformación, acceder a datos confiables y tomar decisiones informadas”, concluyen los referentes de Chequeado.
Ciencia Anti Fake News: científicos de CONICET contra la información no chequeada
Por su parte, Ciencia Anti Fake News es un grupo de jóvenes científicos y científicas comprometidas con un proyecto autogestivo de chequeo de información. El proyecto comenzó desmintiendo noticias falsas en la pandemia causada por COVID-19 y en ese entonces ofrecieron su trabajo voluntario a CONICET, logrando contribuir con contenido científico en la plataforma Confiar. Luego de la pandemia continuaron realizando este trabajo de manera 100% voluntario y a la par de su labor como investigadores.
Para conocer un poco más del proyecto y la opinión sobre el impacto de la inteligencia artificial en aspectos de desinformación e infodemia, conversamos con Esteban Grasso, uno de los integrantes de Ciencia Anti Fake News.
Él es biólogo molecular, doctor en química biológica e investigador en el área de la inmunología y la reproducción, particularmente aplicada a fertilidad, en el IQUIBICEN (Instituto de Química Biológica de la Facultad de Ciencias Exactas y Naturales con dependencia UBA/CONICET). Recientemente está utilizando herramientas de bioinformática y análisis de datos para sus investigaciones, por lo que su inmersión en la tecnología es considerable.
“La irrupción de la IA como herramienta para manipular contenido y volverlo realista es un problema muy grande. Más allá de haber visto contenido manipulado en las últimas elecciones de la ciudad de Buenos Aires, es un problema que se observa mucho más en Estados Unidos y en países de habla inglesa, más que acá en Argentina, llegando al punto de producir contenido audiovisual realista e inundar las redes sociales con estos deep fakes”, describe Grasso.
En cuanto al impacto que este problema tendría en las noticias científicas, el investigador resulta esclarecedor: “Sin dudas que ha circulado mucho contenido, pseudocientífico, sobre el tema de antivacunas o terraplanismo, pero aún no he visto tanto contenido donde se use IA para manipular este tipo de información”, explica el investigador. Y comenta que en el ámbito de la salud observa un riesgo considerable cuando el común de las personas le consultan a los asistentes de IA sobre enfermedades, diagnósticos y tratamientos, tomando la respuesta como verdadera.
“El problema es que la gente muestra una sobreconfianza en la respuesta de ChatGPT, como si fuera una persona real o incluso más que eso y no comprenden que esta tecnología es un gran predictor de texto pero no tiene un razonamiento detrás de esas respuestas. A su vez, no veo un interés en que las grandes compañías de tecnología o empresas de redes sociales adviertan sobre contenido falso, más aún si eso les genera muchos clicks. Es un tema que seguramente merece mayor regulación”, afirma Grasso.
Ante ello, el especialista recomienda chequear fuentes oficiales, leer la información completa y verificar el contenido constatando quiénes son los autores y si algún otro profesional referente habla al respecto.
“Es clave mantenerse actualizado en herramientas de verificación, publicaciones y fuentes de información. En nuestro grupo estamos ayudando a periodistas, medios de comunicación y a la ciudadanía en general en el trabajo de chequeo de información científica, ya que tenemos investigadores en distintas áreas y especialidades, participando con contenido de actualidad. Al mismo tiempo, estamos presentes en eventos científicos, charlas y actividades de capacitación y de divulgación científica, como por ejemplo el Día de la Inmunología en la Feria del Libro y la asesoría que hicimos desde CONICET varios integrantes del equipo a una productora llamada Ponchosauer, que generó una serie digital de títeres llamada ‘Feik Ñus’ sobre alfabetización digital y chequeo de información para la cadena DirecTV (programa Escuela Plus). La serie fue muy distinguida en diferentes festivales y los diez capítulos están en YouTube”, concluye Grasso.
Sin lugar a dudas, combatir la desinformación no es sólo una tarea de los medios o de los gobiernos. Requiere de la participación activa de las plataformas tecnológicas, los funcionarios y tomadores de decisión, organizaciones de la sociedad civil y ciudadanía informada. Y la desinformación en la era de la inteligencia artificial no es únicamente un problema tecnológico, sino un desafío estructural y transversal a toda la sociedad.
Bonus track: recomendaciones de Factchequeado
La desinformación generada por IA es particularmente peligrosa porque puede ser muy difícil de detectar a simple vista, explican desde Factchequeado, una iniciativa colaborativa que lucha contra la desinformación que afecta a las comunidades latinas e hispanas en los Estados Unidos y reduce la brecha de información verificada en español. Desde el portal se brindan recomendaciones para detectar desinformación generada por IA en imágenes, audios y videos.
El proyecto desarrollado, con el apoyo de PEN América, brinda un recursero abierto para ayudar a las personas a identificar contenido creado o manipulado mediante herramientas de inteligencia artificial.
IMAGEN: Observar detalles como dedos, ojos y sombras irregulares. También se puede hacer una búsqueda inversa de la imagen que se quiere analizar, para ver si se encuentra la fuente original o imágenes similares que muestren otros contextos.
AUDIO: Identificar cambios abruptos en el tono o emotividad poco natural. Prestar atención si el audio tiene efectos especiales o música de fondo, porque ello hace que las herramientas que detectan IA fallen más.
VIDEO: Estar especialmente atentos a la sincronización labial con el audio y textura de la piel de las personas, la IA suele mostrarnos pieles más tersas que las reales.
En cuanto a lo que es TEXTO, Factchequeado recomienda verificar la información con sitios web confiables y desconfiar especialmente del contenido que genera emociones extremas.
Si tras la observación y el uso de nuestros sentidos, no estamos seguro de la autenticidad de un contenido, Factchequeado recomienda utilizar herramientas de verificación como Hugging Face para imágenes, AI Voice Detector para audio y Deepware para videos o Hive Moderation, que sirve para los tres formatos. Aunque debemos saber que ninguna herramienta es 100% fiable y cada una arroja un porcentaje de probabilidad de que un contenido haya sido generado con IA.
Se recomienda siempre buscar la fuente original del contenido. Y, si no encontramos una fuente confiable que respalde la imagen, audio, video o texto, la regla es simple: no compartir el contenido si es informativo.


