Knight Center
Knight Center

Blog PERIODISMO EN LAS AMERICAS

Panelistas de ISOJ desenmascaran ‘noticias falsas’, destacan herramientas y prácticas para mejorar el flujo de información veraz




Por Leah Scarpelli

Jennifer Preston, exeditora de redes sociales de The New York Times y vicepresidente de periodismo de la Fundación Knight, presentó el panel de ISOJ sobre confianza, al resaltar la dedicación de la fundación por encontrar formas de luchar contra la desinformación en el mundo del periodismo.

Panel de ISOJ 2018 sobre noticias falsas y confianza. De izquierda a derecha: Jennifer Preston, Cameron Hickey, Lisa Fazio, Frédéric Filloux, Darryl Holliday y Joan Donovan (Foto: Mary Kang/Centro Knight).

Preston señaló el 13 de abril que una reciente encuesta de Gallup demuestra qué tan profunda es la división partidista respecto a la confianza en el periodismo.

Uno de los proyectos recientes de la Fundación Knight para mejorar la calidad de la información veraz fue el Prototype Fund Challenge. Más de 800 personas respondieron con ideas para abordar preocupaciones serias con respecto a la confianza en el periodismo, y en la tarde de ese 13 de abril, cinco de los ganadores del Prototype Challenge destacaron sus ideas.

Sin embargo, antes de que los ganadores hablaran, Preston presentó a Joan Donovan, la investigadora principal de Data & Society. Donovan explicó cómo los medios a menudo son manipulados, pero también cómo las personas están usando los medios para manipular individuos y grupos.

Especialmente en tiempos de noticias de última hora y crisis, dijo Donovan, hay muy poca información. Periodistas e individuos, igual que la policía, a menudo luchan por encontrar diferentes formas de evidencia de lo que realmente sucedió. Durante ese momento de baja información y alto interés público, dentro de las cuatro a ocho horas del evento, si los trolls han tenido éxito, alguien termina reportando la información incorrecta.

“¿Cómo, si intentamos arreglar esto, cuáles son los retos?”, preguntó Donovan.

Ella luego describió las tácticas que los trolls podrían usar para difundir la desinformación. La piratería de fuentes (source hacking) es donde los grupos se coordinan para suministrar información falsa a los periodistas en tiempos de crisis. Por ejemplo, un documento falso en Twitter afirmaba que la representante de California Maxine Waters pidió a un banco que le diera una donación de campaña por US $1 millón a cambio de su promesa de traer refugiados y así traer nuevas hipotecas para el banco. Se han realizado esfuerzos para eliminar el documento falsificado y desacreditarlo, pero sigue vivo.

La misma táctica fue utilizada durante las recientes elecciones presidenciales francesas, donde se publicó información sobre el presidente Emmanuel Macron sugiriendo que tenía una cuenta bancaria oculta en el Caribe.

Otra táctica es poner palabras claves en cuclillas, donde los trolls esperan para hackear las redes sociales, centrando su desinformación entre una palabra clave. El sitio web “Blacktivist” y la página de Facebook “Black Matters” son dos ejemplos de este método para diseminar información distorsionada.

El desafío, dijo Donavan, es que “no hay una manera real de verificar quién está dirigiendo estas páginas. La fuente material es mucho más difícil de investigar porque los trolls están repitiendo las mismas tácticas. Lo tratan como un juego”.

O, si un periodista cubre la desinformación que se ha creado, los trolls toman estas historias, las compilan y las tratan como trofeos. Estos están “tratando de desestabilizar la entera institución del periodismo”.

Lo que necesitamos ahora, dijo Donovan, es un movimiento de medios en el cual los periodistas están mejor equipados para abordar a los trolls y crear un contexto en el que ellos y sus colegas puedan apoyarse mutuamente y prevenir que historias mal informadas tengan lugar.

Los ganadores del Prototype Fund Challenge han diseñado formas de proporcionar información más precisa en el periodismo. Frédéric Filloux, creador de Deepnews.ai, habló sobre un algoritmo de aprendizaje automático que diseñó para examinar mejor las noticias falsas e identificar el periodismo de calidad. Filloux explicó que internet es esencialmente como un campo de basura: hay 100 millones de enlaces creados al día, la mitad de los cuales están en inglés.

“Si revisamos las historias de forma manual, es como tratar de purificar el agua del río Ganges con un vaso a la vez”, explicó Filloux.

En lugar de esto, Deepnew.ai presenta historias a personas para que las califiquen y luego utiliza esos puntajes para calificar la calidad de las noticias en esas historias. Esta interfaz de puntuación humana le hace al lector preguntas como: ¿Qué tipo de historia es esta? ¿Cuál es su minuciosidad, equilibrio y equidad? ¿Cuál es su vida útil o relevancia?

“Una parte importante del proceso es el factor humano”, dijo Filloux.

Otra forma en que Deepnews.ai intenta encontrar las historias de calidad es a través de un modelo de aprendizaje profundo, donde entre 10 millones de artículos de todo tipo de noticias, se detectan y clasifican patrones ocultos de calidad editorial. Hasta ahora, DeepNews.ai ha tenido una precisión del 90 por ciento entre la calidad de las noticias detectadas algorítmicamente y por medios humanos.

Lisa Fazio luego habló sobre el valor de la investigación en ciencias sociales para erradicar la desinformación en el periodismo. Ayudó a diseñar CrossCheck, una colaboración en línea que tuvo lugar alrededor de las elecciones presidenciales francesas de 2017, que produjo verificaciones de datos entre varias organizaciones, creó errores de desinformación y los publicó en línea.

Luego, los investigadores estudiaron las respuestas de los lectores de historias falsas tanto en Estados Unidos como en Francia. Diez rumores fueron presentados, precalificados por los lectores sobre cuán precisos sentían que eran las declaraciones. Los lectores después leyeron uno de los desaciertos, volvieron a clasificar la historia rumoreada y contestaron preguntas de memoria relacionadas con la historia.

La investigación encontró que “todos comienzan en el medio”, explicó Fazio, en una escala de cero a 10 sobre cuán precisa es la historia. El nivel de precisión nominal disminuye después de que los lectores leen los desaciertos, aunque la precisión es menor entre los lectores franceses que entre los estadounidenses. Además, los investigadores encontraron que no había evidencia del “efecto contrafuego”, o la forma en que se presentan los desaciertos que causan que las personas se vuelvan más afianzadas en sus puntos de vista. Una semana después de las calificaciones iniciales, los lectores en Estados Unidos todavía recordaban que los rumores eran falsos.

Sin embargo, el recuerdo de detalles específicos entre los lectores no era tan bueno. Respondieron aproximadamente de la mitad a dos tercios correctamente, tal vez indicando una lectura menos cuidadosa de la historia.

Fazio continuó diciendo que un titular a modo de pregunta y el número de logotipos cerca de la historia en línea no causó una diferencia significativa en las calificaciones de credibilidad de los lectores.

Darryl Holliday habló sobre sus esfuerzos como cofundador de City Bureau en Chicago. Presentó varias formas en que la organización está tratando de mejorar la confianza en el periodismo, pero destacó el Documenters Program, donde City Bureau está pagando y entrenando a ciudadanos para documentar reuniones públicas en toda la ciudad.

Actualmente, 330 “documentadores” de toda la ciudad, de distintas edades y razas, buscan abordar cuestiones cívicas más amplias, dijo Holliday. “¿Quién toma decisiones para Chicago y cómo sabemos dónde y cuándo se toman esas decisiones?”.

Holliday explicó que las reuniones públicas son espacios importantes para la democracia donde cualquier habitante puede participar y responsabilizar a los líderes de la ciudad. Y con más de 20 sitios de web diferentes que publican dónde se toman esas decisiones, es difícil para un habitante obtener información básica sobre dónde y cuándo son las reuniones públicas.

Holliday continuó diciendo que City Bureau envía a los documentadores a estas reuniones y “raspadores” luego colocan esta información en un solo calendario. City Bureau todavía está averiguando qué forma tomará finalmente la documentación de las reuniones públicas, como los tweets en vivo, las grabaciones de audio o las notas de las reuniones. Pero explicó, “queremos un documentador en cada reunión en Chicago”.

En esta era de noticias locales a menudo siendo destruidas por los recortes de personal, la cobertura de las reuniones locales son las primeras en desaparecer. Holliday terminó diciendo que este proyecto comenzó en el sur y el oeste de Chicago, pero que hay planes para comenzar en Detroit y Carolina del Norte, y que City Bureau quiere agregar más ciudades.

Finalmente, Cameron Hickey, productor de PBS NewsHour, explicó su desarrollo de Newstracker.org. Hickey comenzó diciendo que después de las elecciones presidenciales estadounidenses de 2016, comenzó a investigar desinformación en las redes sociales, tomando un enfoque más basado en datos.

“El desafío es como un juego de Whac-A-Mole”, dijo Hickey. “Quien crea desinformación, intenta evitar la detección”.

Hickey también decidió que necesitamos un término mejor que “noticias falsas” para describir esta desinformación. Él usa “noticias basura”, que incluye clickbait, o cualquier cosa falsa, hiperpartidista, engañosa, plagiada o, potencialmente, satírica.

Los objetivos de Newstracker son identificar fuentes de noticias que generen desinformación y rastrear y recopilar este contenido, tanto entre los sitios de noticias como en la información compartida en las redes sociales. La forma en que su organización hace esto es a través de un algoritmo y, hasta el momento, Newstracker ha descubierto que los nuevos dominios de noticias basura están siendo creados constantemente, más de 80 por mes. Newstracker ha colectado 4.000 hasta ahora. Además, las imágenes de memes pueden ser una fuente de desinformación. Newstracker ha identificado más de 90.000 desde el comienzo de este año.

El panel terminó con varias preguntas por parte de los asistentes, incluyendo una sobre el potencial de los algoritmos para censurar grupos que ya están marginados. La moderadora del panel, Jennifer Preston, explicó que realmente no hay suficiente información para los periodistas sobre inteligencia artificial y que la Fundación Knight también está financiando intentos para abordar preguntas sobre Inteligencia Artificial.




Boletín

Suscríbase a nuestro boletín semanal "Periodismo en las Américas"

Boletim Semanal (Português)
Boletín Semanal (Español)
Weekly Newsletter (English)
 
Marketing by ActiveCampaign

Facebook