En el panel “por excelencia” de “toda conferencia de periodismo”, como lo definió Nikita Roy, fundadora de Newsrooms Robots Lab, se debatió sobre la Inteligencia Artificial (IA) y su impacto en las redacciones durante la primera jornada del 26º Simposio Internacional de Periodismo Online (ISOJ).
“No se trata solo de herramientas de IA, sino de centrarse en la transformación que está ocurriendo gracias a esta tecnología” explicó Roy, quien moderó el panel “Más allá del hype: el impacto real de la IA en las redacciones”. “Y luego, también pensar en cómo diseñamos futuras experiencias informativas con IA”.
Roy planteó algunas preguntas que periodistas y medios de comunicación deberían plantearse al implementar la IA: cómo debería ser la colaboración entre la redacción y el desarrollo de producto, cómo abordar las amenazas a las relaciones con la audiencia, cómo lidiar con la desinformación y la información errónea, y cuáles podrían ser las nuevas oportunidades.
“No se trata de una herramienta más. Se trata de un cambio en la interfaz de las noticias. Se trata de un cambio en la infraestructura de las noticias. Se trata de un cambio en la cultura de funcionamiento y evolución de las salas de redacción”, dijo Roy. “Esta es la conversación que nos ayudará a comprender cómo nos preparamos para ese cambio que se avecina, ya que estas decisiones en el sistema son las que nos diseñarán y prepararán para el futuro de nuestra industria”.
Como vicepresidente de innovación editorial y estrategia de IA para Hearst Newspapers, Tim O’Rouke lidera el equipo desde el cual trabajan con periódicos de Estados Unidos que van desde pequeños hiperlocales hasta grandes que cubren zonas metropolitanas como el San Francisco Chronicle o el Houston Chronicle. Parte de su trabajo es ver cómo implementar la IA en estos medios para “ayudar a nuestros periodistas a hacer más periodismo local importante en sus comunidades”.
O'Rourke señaló cómo el periodismo se vio impactado por la llegada de ChatGPT en 2022. De allí vino para su equipo un proceso de entender cómo usar esta herramienta, ver su uso en el periodismo local e incluso consiguieron fondos para desarrollar herramientas de IA.
“De alguna manera determinamos cuál es nuestro camino para aprovechar al máximo esta tecnología, respetando nuestros estándares, nuestra ética y entendiendo que queremos innovar, pero con cautela para no perjudicar a las marcas ni perder la confianza de nuestro público”, dijo O’Rourke. “Esto nos ha llevado a este momento, donde estamos potenciando e impulsando las mejores ideas que surgen de nuestras salas de prensa locales”.
Según dijo, la red emplea entre 650 y 700 periodistas, y el año pasado pudieron capacitar a cerca de 350 de manera directa en herramientas de IA propias y de la industria. El plan es llevar la capacitación a todo el equipo editorial este año. Según sus registros, tienen 65.000 usos de herramientas de IA y cada mes este uso aumenta.
“Seguimos el principio de que un humano debe estar involucrado”, dijo O’Rouke. “Es hora de que volvamos a invertir en nuestro periodismo local para permitir que nuestra gente haga un trabajo más inteligente, para permitirles adentrarse más en sus comunidades, para permitirles hacer cosas que tal vez antes no tenían tiempo de hacer”.
Aunque ha sido significativo el avance, O’Rouke habló de algunos aspectos que pudieron mejorarse en su implementación. Explicó como una herramienta de IA ayudó a traducir el contenido periodístico a español, pero no supieron cómo acceder a audiencias en español.
Otra lección, según O’Rouke, es que muchas herramientas funcionan mejor para medios hiperlocales y otras para medios de grandes ciudades que tienen equipos con diferentes especialidades. “Hemos aprendido que debemos adaptar nuestras herramientas y experiencias a los usuarios internos para que se ajusten a su forma de trabajar”, dijo O’Rouke.
Para Uli Köppen, directora de IA de la radiodifusora pública de Alemania, hablar del “verdadero impacto” de la inteligencia artificial en los medios lo primero que se debe preguntar es cómo la IA cambia la manera en que se reporta sobre IA.
Köppen dijo que desde la radiodifusora pública alemana se especializaron en los reportajes de rendiciones de cuentas de algoritmos. Esto comenzó hace al menos ocho años cuando hicieron un reportaje sobre cómo el algoritmo que da el puntaje crediticio en Alemania no era muy transparente sobre cómo funcionaba.
En una reciente historia, junto a Wired, mostraron cómo se vendían datos de usuarios de diferentes apps que podían rastrear los movimientos de cada persona, incluidos trabajadores del servicio secreto alemán y estadounidenses.
“Para realizar este tipo de reportajes, necesitamos equipos interdisciplinarios. Tenemos que invitar a programadores a nuestras redacciones y a los responsables de producto para que puedan realizar este tipo de reportajes”, dijo Köppen. “Siempre estoy abogando porque haya más equipos que cubran reportajes de rendición de cuentas algorítmica porque creo que es fundamental fomentar la alfabetización en IA con los reportajes que estamos haciendo”.
Una de las ventajas en la radiodifusora alemana es que no usan la IA como clickbait sino para lograr que sus audiencias vean su periodismo. Han entendido que se puede personalizar las herramientas. Una de ellas por ejemplo permite que con su localización o poniendo el código postal, la persona reciba noticias importantes de acuerdo al área en la que se encuentra.
Otro uso de la IA tiene que ver con permitirle a los periodistas tener varias versiones de una misma historia para diferentes medios. Por ejemplo, le piden hacer una versión radial para determinada zona del país.
“Queremos que nuestros periodistas se centren en investigaciones, análisis y reportería de campo, pero no queremos desperdiciar energía creando diferentes versiones de una historia, y a veces creamos muchísimas”, dijo Köppen.
Para Yahoo News todo se basa en “cómo aprovechamos la IA para ofrecer mayor calidad a nuestros lectores”, dijo Brooke Siegel, su vicepresidenta de contenido. Según Siegel, Yahoo News es el sitio web de noticias e información número uno de Estados Unidos que llega a 190 millones de usuarios al mes. El uso de IA entonces para “abordar esa escala”.
“La estrategia es mantenernos fieles a los humanos y la IA, la forma en que la incorporamos, es para ofrecer más contenido premium de calidad a nuestra audiencia”, dijo Siegel. “Y también para integrarla en nuestra redacción […] para que los editores puedan centrarse en el trabajo creativo de alto impacto que están haciendo y delegar en la IA parte del trabajo que no debería necesariamente ocupar tanto de su tiempo”.
Para lograr esta oferta de mayor calidad, Yahoo News usa la IA personalizando el contenido para sus usuarios. “Tenemos decenas de miles de artículos que llegan a nuestro canal de producción cada día. ¿Cómo encuentro la historia adecuada para nuestra audiencia? La IA nos ayuda a abordar eso”, dijo Siegel.
Con el nuevo algoritmo, han podido incrementar en 65% el tiempo que un usuario en el sitio. Un algoritmo que también incluye a los editores para determinar qué editores son más acordes para escribir cierto tipo de historias.
Sin embargo, dijo Siegel, no se trata solamente de ofrecer lo que quiere la audiencia, sino lo que necesita saber. Para eso, tienen otra herramienta de IA que navega a través de miles de historias para determinar cuáles son las más importantes, información que pasa a los editores y así determinar cuáles serán las historias principales de su sitio.
“Los editores revisan ese conjunto de historias y eligen los artículos, los medios y los enfoques adecuados. De esta manera, cuando nuestra audiencia accede a ese conjunto de historias principales, obtiene una variedad de perspectivas sobre un solo tema, seleccionado por un editor”, dijo Siegel. “Pero no habríamos podido llegar a ese punto [sin IA]. No podríamos haber tenido al editor revisando esas miles de historias”.
La palabra final la tomó Juliana Castro Varón, editora sénior de diseño de iniciativas de IA del The New York Times, para hablar sobre cómo diseñar experiencias de IA. “No un chatbot”, dijo Castro Varón de manera contundente y entre risas al inicio de su presentación.
Debido a su formación como diseñadora, siempre le ha preocupado la manera como se presentan las palabras y el lenguaje. Por eso se siente “horrorizada” y le da curiosidad cuando alguna organización decide presentar su conocimiento a través de un chatbot.
No es que un chatbot sea siempre una mala opción, pero Castro Varón considera que hay que considerar si realmente es lo mejor para su audiencia. Su equipo por ejemplo diseña experiencias IA para dos públicos: la audiencia del New York Times y los periodistas del medio.
“Ambos buscan contexto, una forma de comprender los hechos”, dijo Castro Varón. “Así que hemos establecido que una de las cosas que hace a la IA tan poderosa y peligrosa es que no puede comprender significados. Pero, con mayor frecuencia, el valor de la IA reside no en que pueda generar algo nuevo, sino en crear una estructura a partir de conjuntos de datos masivos”.
Un ejemplo del uso de IA fue cuando en la cobertura de elecciones periodistas del medio recibieron información sobre grupos dedicados a difundir información falsa. Los documentos recibidos constaban de más de 500 horas de grabaciones de llamadas en zoom y videos, entre otros. El equipo de IA encontró la manera de analizarlo y obtener datos que después fueron revisados por el equipo periodístico.
“Nuestro equipo cree que la IA por sí sola es prácticamente inútil, al menos en nuestra profesión. Hemos aprendido una y otra vez que la experiencia combinada con la IA es una combinación muy poderosa”, dijo Castro Varón.
Con un poco de humor, finalizó su presentación dando a conocer que el New York Times sí tiene un bot: uno que analiza las respuestas erróneas más populares en el rompecabezas diario. Información que analiza el equipo de juegos del diario antes de publicarse.
“Me gustan los bots, pero sólo a veces”, dijo.
Durante un poco más de 20 minutos panelistas y moderadora debatieron sobre temas en mayor profundidad como la relación entre los gerentes de producto y el equipo editorial, la responsabilidad cuando la IA produce información falsa o desinformación, y la transparencia de los medios respecto al uso de IA en productos periodísticos.