Por Catharine Li*
A inteligência artificial está transformando a forma como as redações estabelecem relações de confiança com seu público.
Durante o painel "Mídia sintética e jornalismo: Avatares, criação e manipulação de imagens" no 26º Simpósio Internacional de Jornalismo Online (ISOJ), jornalistas e especialistas em mídia compartilharam perspectivas sobre os desafios da detecção e divulgação de conteúdo gerado por IA, destacando ao mesmo tempo a inovação da IA para combater a censura e a repressão.
Roberto Quigley, professor de prática na Escola de Jornalismo e Mídia da Universidade do Texas em Austin, presidiu o painel final da conferência em 28 de março de 2025.
Craig Silverman, repórter nacional da ProPublica, refletiu sobre a ascensão de imagens geradas por IA no Facebook. Comparado ao conteúdo que encontrou em suas reportagens há uma década, ele disse que agora é mais fácil gerar imagens visualmente mais convincentes para um grande público.
Silverman disse que o "resíduo" de IA, ou imagens geradas por IA de baixa qualidade, gera uma forte reação emocional, mas também provoca um envolvimento significativo. Como o Facebook oferece aos criadores um pagamento em dinheiro com base no envolvimento mensal com suas contas, Silverman disse que o incentivo financeiro para postar conteúdo gerado por IA poderia crescer.
"Na área onde a verificação de fatos está indo embora nos EUA no Facebook, de repente, eles estão posicionados para se tornarem parte deste novo e crescente programa de monetização de conteúdo no Meta", disse Silverman.
Embora muitas pessoas estejam cientes das ferramentas de IA disponíveis para produzir rapidamente imagens, vídeo e áudio, Silverman disse que elas estão cada vez mais "incorporadas ao ecossistema de informação".
"Muitos de nós sabemos sobre deepfakes, sobre imagens geradas por IA, mas isso não significa que todos nós sabemos como reconhecê-las, e não significa que pensamos nisso sempre que consumimos mídia, e isso é algo que as pessoas realmente exploram", disse Silverman.
Para Carlos Eduardo Huertas, diretor da plataforma de mídia CONNECTAS, o uso da IA foi "essencial" durante as eleições presidenciais de 2024 na Venezuela.
Num ambiente de polarização política, foram criadas duas iniciativas para combater a desinformação governamental e as campanhas de censura, disse Huertas. O trabalho colaborativo de jornalistas de todo o país resultou nas iniciativas Venezuela Vota e #LaHoraDeVenezuela.
Desde a contestada reeleição do Presidente Nicolás Maduro, a inteligência artificial ajudou a salvaguardar as identidades dos jornalistas sem comprometer a qualidade das reportagens. O projeto, denominado Operación Retuit, utiliza uma dupla de avatares gerados por IA, conhecidos como "La Chama" e "El Pana", para apresentar noticiários verificados ao público nas redes sociais.
"Colocamos a inteligência artificial a serviço da inteligência coletiva num esforço sem precedentes de jornalismo colaborativo na região", disse Huertas.
O uso da IA, disse Huertas, é uma forma inovadora e segura de responder a um ambiente em que "a incerteza e o perigo aumentam a cada minuto" para os jornalistas.
Desde o lançamento da Operación Retuit, Huertas disse que o conteúdo gerou atenção positiva entre o público e ganhou envolvimento significativo, apesar das restrições à liberdade de expressão na Venezuela.
"Cada novo seguidor é um cidadão que retiramos das areias movediças da desinformação e está exposto a uma variedade mais diversificada de meios de comunicação para se manter informado", disse Huertas.
Responder ao papel da IA generativa em um cenário de mídia em evolução exige colaboração entre setores, disse Santiago Lyon, chefe de Advocacia e Educação da Iniciativa de Autenticidade de Conteúdo.
No centro deste esforço para restaurar a confiança e a transparência online está a proveniência, que procura estabelecer os fatos básicos sobre as origens do conteúdo digital, disse Lyon.
"A proveniência realmente consiste em provar o que as coisas são, em vez de detectar o que é falso", disse Lyon.
Para combater este desafio, Lyon apresentou o conceito de Credenciais de Conteúdo, um "rótulo nutricional" inviolável para conteúdo online que comunica a origem e o histórico de envolvimento do conteúdo online num formato interativo.
Lyon disse que a iniciativa funciona em todas as fases da cadeia de abastecimento digital, desde a criação até a disseminação. Isto envolve a colaboração com fabricantes de hardware para estabelecer as origens de um arquivo após a criação, ferramentas de edição de imagens para criar um histórico de edição digital e gerenciamento de conteúdo.
A tecnologia de código aberto é desenvolvida pela Coalition for Content Provenance and Authenticity. Lyon disse que embora várias organizações, incluindo Adobe, Google e Meta, estejam começando a implementar Credenciais de Conteúdo, a iniciativa continua a enfatizar a educação do público e dos formuladores de políticas.
"Não estamos tentando ser os árbitros da verdade aqui", disse Lyon. "O que estamos tentando fazer é fornecer informações adicionais para que os consumidores de notícias e de qualquer outra coisa online possam tomar decisões mais informadas sobre em que confiar."
Claire Leibowicz, chefe de IA e Integridade da Mídia na Parceria sobre IA, levantou a questão de como a política de IA poderia apoiar a mídia como registradores da realidade.
Reconhecendo o número crescente de políticas que exigem a rotulagem de conteúdos gerados por IA, Leibowicz disse que muitas vezes não incluíam orientações para as organizações de comunicação social sobre como implementar estas etiquetas.
Em 2023, a parceria lançou uma estrutura sobre como criar e distribuir mídia sintética de forma responsável. Reunindo 10 parceiros da mídia noticiosa e da sociedade civil, os grupos foram encarregados de criar estudos de caso sobre como as diretrizes foram implementadas nas suas respectivas organizações.
Leibowicz destacou exemplos de como a IA está sendo usada pela CBC News, que decidiu não usar IA para ocultar a identidade da fonte, e pela BBC News, que utilizou tecnologia de troca de rosto para anonimizar as fontes.
Embora ambas as organizações de notícias tenham fornecido explicações sobre as suas respectivas decisões, Leibowicz disse que este exemplo específico complicou a questão da divulgação da IA por ser completamente neutra.
"A simples divulgação da presença da IA é uma forma imprecisa de transparência para o público", disse Leibowicz. "Você precisa desse contexto rico sobre a origem de algo, como foi feito, além de apenas se uma determinada tecnologia foi usada ou não".
Quigley concluiu o painel perguntando se os participantes estavam otimistas em relação a vencer uma "batalha" de confiança numa era em que informações não confiáveis permeiam o cenário da mídia.
Lyon disse ver uma tremenda oportunidade para os jornalistas explicarem melhor como funcionam as tecnologias de IA, para que os leitores e consumidores possam compreender como interagir com elas de forma mais eficaz.
"Estamos no início de uma jornada que será muito longa", disse Lyon. "A IA não vai desaparecer".
*Catharine Li está no segundo ano estudando relações internacionais e estudos globais na Universidade do Texas em Austin. Ela é repórter sênior do The Daily Texan, cobrindo segurança pública, meio ambiente e imigração.