‘Los periodistas pueden aprender de otras industrias, como la música, donde tanto los artistas como sus editores han llegado a acuerdos’, escribe Anya Schiffrin, autora de AI and the Future of Journalism, publicado esta semana.

Por la Dra. Anya Schiffrin
Escuela de Asuntos Internacionales y Públicos de la Universidad de Columbia (SIPA)

En lo que respecta al uso de la IA generativa por parte de los periodistas, los medios tienen tanto responsabilidades como derechos. En un mundo en el que los medios y otras instituciones se enfrentan a una falta de confianza y credibilidad, es importante que los medios de comunicación adopten principios éticos en el uso de la IA y sean claros con las audiencias sobre cuándo los periodistas utilizan la IA generativa para recopilar y analizar datos.   

Muchas organizaciones periodísticas ya han adoptado estos códigos de prácticas.

Reporteros sin Fronteras (RSF) ha descubierto que la mayoría de los códigos se centran en alguna combinación de estos temas: 

  • Supervisión humana del contenido publicado
  • Transparencia respecto de los contenidos sintéticos publicados
  • Se imponen límites al uso de la IA generativa por parte de los periodistas
  • La necesidad de proteger la privacidad
  • La responsabilidad humana por cualquier contenido publicado, y 
  • El riesgo de sesgo incorporado en las herramientas de IA generativa.

Los editores también están tratando de descubrir qué contenido es útil y cómo adaptar su contenido a los nuevos desafíos y a un mundo en el que se requieren datos fundamentados (es decir, datos basados ​​en información que ha sido verificada) e información verificada actualizada. 

Por ejemplo, el acuerdo de Axel Springer con OpenAI no se trata sólo de vender los derechos para usar el archivo de Axel Springer; requerirá que Axel Springer proporcione resúmenes, basados ​​en el contenido de sus publicaciones, en respuesta a las solicitudes de ChatGPT. 

El impacto económico de la IA en los valores de las noticias 

Pero si bien las organizaciones periodísticas están adoptando la IA generativa como parte de sus prácticas en las salas de redacción y son muy conscientes de las consideraciones éticas y las obligaciones con las audiencias, también son cautelosas ante el impacto económico de las grandes empresas que se benefician de su contenido. Los periodistas temen que el tráfico se desplome a medida que la búsqueda generativa reemplace la búsqueda de noticias por parte de las audiencias.

Los LLM pueden sintetizar y analizar datos de un gran número de fuentes, lo que puede disuadir a las personas de consultar las fuentes originales. 

A las dificultades financieras existentes que enfrentan hoy los medios de comunicación se suma el temor de que si las compañías LLM no compensan a las fuentes originales, esto inevitablemente reducirá sus fuentes de ingresos, agotando su financiación y, por ende, la producción de información original y valiosa. 

Pero las cosas son peores: hay una vieja expresión GIGO (basura que entra, basura que sale): la calidad de los LLM solo puede ser tan buena como la calidad de los datos con los que se entrenan. 

Sin embargo, las empresas LLM no han asumido plenamente este hecho y aparentemente no quieren compensar el conocimiento que utilizan, con lo que corren el riesgo de “matar a la gallina de los huevos de oro”. 

Este problema es aún más agudo si hay varios LLM, ya que entonces ninguno de ellos asumirá la responsabilidad de sus efectos colectivos sobre el ecosistema de información. 

Incluso existe el riesgo de que socaven el modelo de negocio de los motores de búsqueda, que a su vez han estado socavando el ecosistema de información de calidad. 

Los editores de noticias esperaban atribución y enlaces a su contenido, pero esto parece poco probable ya que han surgido informes de que Perplexity y Open AI no pueden citar y vincular consistentemente sus fuentes.

La calidad y la experiencia exigen una compensación

En mi nuevo informe titulado IA y el futuro del periodismo –publicado por la UNESCO esta semana– señalo que sin pagos a los editores o creadores no habrá incentivos para producir información de calidad. 

Sin pago habrá menos diversidad. 

Si no se comparte el valor de la creación de contenidos, los grandes monopolios se beneficiarán. En el informe también describo varias recomendaciones para los gobiernos, las empresas de medios y los editores, así como para las organizaciones intergubernamentales, sobre cómo mejorar. 

Se trata de cuestiones que es necesario debatir ampliamente en el futuro próximo.

Un punto de discordia es si los editores o los creadores deberían recibir los pagos de las grandes empresas de IA. 

En Brasil los músicos piden una parte de los ingresos residuales. 

En Bélgica, las directivas europeas sobre derechos de autor exigen que los creadores reciban un pago, mientras que las negociaciones de los editores con Google no lo exigen. 

Los editores están convencidos de que son ellos los que asumen los costes y los riesgos y, por tanto, los pagos deberían recaer sobre ellos. Le Monde firmó un acuerdo con Open AI en 2024 y cederá el 25% de los ingresos a sus periodistas, ya que son partes interesadas en el medio de comunicación. 

‘Los periodistas pueden aprender de otras industrias, como la música, donde tanto los artistas como sus editores han llegado a acuerdos’.

Se pueden tomar decisiones sobre cómo valorar las noticias y cómo asignar dinero a editores y creadores. 

Además, son necesarios pagos justos para salvaguardar el futuro de las noticias y ayudar a preservar la calidad de los resultados de la IA generativa. 

La alternativa sería un mundo aún más contaminado por la desinformación, la confusión, la falta de confianza y la ausencia de responsabilidad. 

La Dra. Anya Schiffrin es profesora titular de práctica y directora de la especialización en tecnología de medios y comunicaciones en la Escuela de Asuntos Internacionales y Públicos (SIPA) de la Universidad de Columbia.

Fuente: WAN-IFRA, traducido por Adepa.