Por Catharine Li*
La inteligencia artificial está transformando la manera en que las salas de redacción construyen la confianza con sus audiencias.
Durante el panel “Medios sintéticos y periodismo: avatares, creación y manipulación de imágenes” en el 26º Simposio Internacional de Periodismo Online, periodistas y expertos en medios compartieron perspectivas sobre los desafíos de detectar y divulgar contenido generado por IA, al tiempo que destacaron la innovación de la IA para combatir la censura y la represión.
Robert Quigley, profesor en la Escuela de Periodismo y Medios de la Universidad de Texas en Austin, presidió el panel final de la conferencia el 28 de marzo de 2025.
Craig Silverman, reportero nacional en ProPublica, reflexionó sobre el auge de las imágenes generadas por IA en Facebook. Comparado con el contenido que encontró en sus reportajes hace una década, dijo que ahora es más fácil generar imágenes que sean más visualmente convincentes para una gran audiencia.
Silverman dijo que la “basura” de IA, o imágenes de baja calidad generadas por IA, genera una fuerte reacción emocional, pero también provoca un compromiso significativo. Silverman dijo que el incentivo financiero para publicar contenido generado por IA podría crecer debido a que Facebook ofrece a los creadores un pago en efectivo basado en la interacción mensual con sus cuentas.
“En el área donde el fact checking está desapareciendo en EE. UU. en Facebook, de repente, están posicionados para convertirse en parte de este nuevo y creciente programa de monetización de contenido en Meta”, dijo Silverman.
Si bien muchas personas son conscientes de las herramientas de IA disponibles para producir rápidamente imágenes, videos y audios, Silverman dijo que estas se están “integrando cada vez más en el ecosistema de la información”.
“Muchos de nosotros sabemos sobre los deepfakes, sobre las imágenes generadas por IA, pero eso no significa que todos sepamos cómo reconocerlas, y no significa que pensemos en eso cada vez que consumimos medios, y eso es algo en lo que la gente realmente se enfoca y explota”, dijo Silverman.
Para Carlos Eduardo Huertas, director de la plataforma de medios Connectas, el uso de la IA fue “esencial” durante las elecciones presidenciales de 2024 en Venezuela.
En un entorno de polarización política, se crearon dos iniciativas para contrarrestar las campañas de desinformación y censura del gobierno, dijo Huertas. El trabajo colaborativo de periodistas en todo el país resultó en las iniciativas Venezuela Vota y #LaHoraDeVenezuela.
Desde la reelección impugnada del presidente Nicolás Maduro, la inteligencia artificial ha ayudado a proteger la identidad de los periodistas sin comprometer la calidad de la información. El proyecto, llamado Operación Retuit, utiliza un par de avatares generados por IA conocidos como “La Chama” y “El Pana” para presentar noticieros verificados a las audiencias en redes sociales.
“Hemos puesto la inteligencia artificial al servicio de la inteligencia colectiva en un esfuerzo sin precedentes de periodismo colaborativo en la región”, dijo Huertas.
El uso de la IA, dijo Huertas, es una forma innovadora y segura de responder a un entorno en el que “la incertidumbre y el peligro aumentan cada minuto” para los periodistas.
Desde el lanzamiento de Operación Retuit, Huertas dijo que el contenido ha generado una respuesta positiva entre las audiencias y ha tenido una participación significativa, a pesar de las restricciones en Venezuela en torno a la libertad de expresión.
“Cada nuevo seguidor es un ciudadano que sacamos de las arenas movedizas de la desinformación y que se expone a una variedad más diversa de medios para mantenerse informado”, dijo Huertas.
Responder al papel de la IA generativa en un panorama mediático en evolución requiere colaboración entre industrias, dijo Santiago Lyon, jefe de Defensa y Educación en la Iniciativa de Autenticidad del Contenido.
En el centro de este esfuerzo por restaurar la confianza y la transparencia en línea está la procedencia, que busca establecer los hechos básicos sobre el origen del contenido digital, dijo Lyon.
“La procedencia realmente trata de probar qué cosas son, en lugar de detectar qué es falso”, dijo Lyon.
Para combatir este desafío, Lyon presentó el concepto de Credenciales de Contenido, una “etiqueta nutricional” a prueba de manipulaciones para el contenido en línea que comunica el origen y el historial de interacción del contenido en un formato interactivo.
Lyon dijo que la iniciativa funciona en cada etapa de la cadena de suministro digital, desde la creación hasta la difusión. Esto implica la colaboración con fabricantes de hardware para establecer el origen de un archivo al momento de su creación, herramientas de edición de imágenes para crear un historial digital de ediciones y la gestión de contenido.
La tecnología de código abierto es desarrollada por la Coalición para la Procedencia y Autenticidad del Contenido. Lyon dijo que, aunque varias organizaciones, incluidas Adobe, Google y Meta, están comenzando a implementar las Credenciales de Contenido, la iniciativa sigue enfatizando la educación de la audiencia y de los responsables de formular políticas.
“No estamos tratando de ser los árbitros de la verdad aquí”, dijo Lyon. “Lo que intentamos hacer es proporcionar información adicional para que los consumidores de noticias o, en realidad, cualquier otra cosa en línea, puedan tomar decisiones mejor informadas sobre en qué confiar”.
Claire Leibowicz, jefa de IA e Integridad Mediática en la Partnership on AI, planteó la cuestión de cómo la política de IA podría apoyar a los medios como registradores de la realidad.
Reconociendo el creciente número de políticas que requieren el etiquetado del contenido generado por IA, Leibowicz dijo que a menudo no incluían orientación para las organizaciones de medios sobre cómo implementar estas etiquetas.
En 2023, la asociación lanzó un marco para crear y distribuir medios sintéticos de manera responsable. Reuniendo a 10 socios de medios de comunicación y sociedad civil, los grupos fueron encargados de crear estudios de caso sobre cómo se implementaron las pautas en sus respectivas organizaciones.
Leibowicz destacó ejemplos de cómo se está utilizando la IA en CBC News, que decidió no usar IA para ocultar la identidad de las fuentes, y en BBC News, que utilizó tecnología de intercambio de rostros para anonimizar fuentes.
Si bien ambas organizaciones de noticias proporcionaron explicaciones sobre sus respectivas decisiones, Leibowicz dijo que este ejemplo en particular complicaba la cuestión de la divulgación de IA como algo completamente neutral.
“Simplemente divulgar la presencia de IA es una forma imprecisa de transparencia para las audiencias”, dijo Leibowicz. “Se necesita un contexto más rico sobre de dónde proviene algo, cómo se hizo, más allá de si se usó o no una determinada tecnología”.
Quigley concluyó el panel con una pregunta sobre si los panelistas eran optimistas respecto a ganar una “batalla” de confianza en una era en la que la información no confiable invade el panorama mediático.
Lyon dijo que veía una gran oportunidad para que los periodistas explicaran mejor cómo funcionan las tecnologías de IA, para que los lectores y consumidores pudieran comprender cómo interactuar con ellas de manera más efectiva.
“Estamos en el comienzo de lo que será un camino muy largo”, dijo Lyon. “La IA no va a desaparecer”.
________________________________________________________________________
Catharine Li es estudiante de segundo año de relaciones internacionales y estudios globales en la Universidad de Texas en Austin. Es reportera senior de noticias para The Daily Texan, cubriendo seguridad pública, medio ambiente e inmigración.