Un informe del Instituto Poynter destaca la importancia de priorizar a la audiencia y la ética en la integración de la inteligencia artificial en las redacciones.

La rápida evolución de la inteligencia artificial generativa está convergiendo con el periodismo a velocidad de crucero, lo que plantea nuevos desafíos éticos y de confianza con la audiencia. A medida que más redacciones experimentan con la IA, surge la necesidad imperante de establecer directrices éticas claras y fomentar una comunicación transparente con los lectores.

El Instituto Poynter reunió recientemente a más de 40 líderes de redacciones, responsables de tecnólogía, editores y periodistas en su Cumbre sobre IA, Ética y Periodismo.

Entre los asistentes se encontraban representantes de agencias y medios como Associated Press, The Washington Post, Gannett, Invisible Institute, Hearst, McClatchy, Axios y Adams, así como de organizaciones tecnológicas y académicas como OpenAI, la Online News Association, el American Press Institute y la Universidad Northwestern.

Durante dos días intensos, debatieron sobre el uso de la IA generativa y su lugar en la ética periodística en constante evolución, que se han recogido ahora en un informe. Estas son las principales conclusiones del informe:

Principales conclusiones del informe

  • Ansiedad y desconfianza de la audiencia: existe una ansiedad significativa entre los lectores respecto al uso de la IA en el periodismo, alimentada por preocupaciones sobre la seguridad laboral y las verdaderas intenciones detrás de su implementación.
  • Demanda de transparencia: la mayoría de la audiencia desea ser informada cuando se utiliza la IA en la producción de noticias, buscando claridad y honestidad por parte de los medios.
  • Necesidad de informaciones claras: para evitar la «fatiga de etiquetas» y mantener la confianza del público, es esencial ofrecer informaciones específicas sobre cómo se emplea la IA en la creación de contenidos.
  • Privacidad de datos: la privacidad de los datos es una preocupación subestimada en el despliegue de herramientas de IA en las redacciones y debe abordarse con urgencia.
  • Experimentación responsable: se alienta a las redacciones a experimentar con la IA para descubrir nuevas capacidades, integrando estas herramientas de manera reflexiva en sus flujos de trabajo.
  • Feedback Continuo de la Audiencia: La retroalimentación constante y la participación del público en el proceso de desarrollo de la IA son esenciales para crear productos informativos relevantes y confiables.
  • Inversión en Alfabetización de IA: Las organizaciones de noticias deben invertir en iniciativas que mejoren la comprensión de la IA tanto entre los periodistas como en el público, fomentando un entorno más informado y colaborativo.

La voz de la audiencia: resultados de los grupos focales

La cumbre subrayó la importancia central de la audiencia. Poynter, en colaboración con Benjamin Toff, director del Centro de Periodismo de Minnesota, organizó grupos focales para discutir la percepción del público sobre la IA en el periodismo. Los hallazgos revelaron:

  • Contexto de ansiedad y molestia: los participantes expresaron sentirse abrumados por la proliferación de ofertas de IA en línea, mostrando preocupación por lo desconocido y por el impacto en la identificación de noticias confiables.
  • Deseo de divulgación: aunque los consumidores de noticias desean transparencia sobre el uso de la IA, existe menos consenso sobre la forma y el grado de dicha divulgación.
  • Aumento del aislamiento social: temen que el uso creciente de la IA en el periodismo exacerbe el aislamiento social y perjudique a los periodistas humanos que producen la cobertura actual.

Un participante destacó: «He notado más presencia de la IA en las redes sociales. Está ahí, ofreciéndote funciones de IA que antes no estaban. Siento que me lo están imponiendo.»

El factor humano en riesgo

La preocupación por la posible pérdida de empleos para los periodistas humanos fue recurrente. Muchos se inquietaron al ver ejemplos de presentadores generados por IA leyendo noticias, percibiéndolo como una amenaza a la autenticidad y calidad del periodismo.

Un participante comentó: «Si todos usan IA, entonces todas las noticias suenan igual. Eso es preocupante».

Desafíos éticos y tecnológicos en las redacciones

Nikita Roy, becaria Knight del Centro Internacional para Periodistas, y Phoebe Connelly, editora senior de estrategia e innovación en IA de The Washington Post, expusieron proyectos actuales que integran la IA en las redacciones:

  • Herramientas de resumen y síntesis: han surgido aplicaciones que transforman el periodismo de formato largo en resúmenes y viñetas.
  • Interacción con la audiencia: se enfatiza la importancia de «conversar» con los usuarios sobre el contenido, haciéndolo más accesible y atractivo.
  • Análisis de datos masivos: algunas redacciones utilizan la IA para analizar transcripciones de reuniones gubernamentales, potenciando la cobertura de asuntos locales.

Connelly destacó el enfoque cauteloso pero ambicioso de The Washington Post con su herramienta «Climate Answers», un chatbot que responde a preguntas sobre cambio climático basándose en ocho años de reportajes del medio.

La ética ante todo

Kelly McBride y Tony Elkins, del Instituto Poynter, abordaron la necesidad de que el periodismo mantenga sus estándares éticos en medio de la revolución tecnológica:

  • Estándares periodísticos únicos: a diferencia de otras profesiones, el periodismo carece de un organismo regulador, lo que hace vital que los medios establezcan y sigan directrices éticas claras.
  • Transparencia en el uso de la IA: es crucial explicar al público cómo y por qué se utiliza la IA, evitando tecnicismos y promoviendo una comprensión clara.
  • Desafíos históricos repetidos: la manipulación de imágenes y contenidos no es nueva, pero la IA aumenta exponencialmente el potencial de desinformación, lo que exige una respuesta ética firme.

Principios para el desarrollo ético de productos de IA

Basándose en las discusiones y actividades de la cumbre, Poynter elaboró nueve principios para guiar el desarrollo ético de productos de IA en el periodismo:

  1. Transparencia: comunicar abiertamente los procesos de desarrollo y uso de la IA.
  2. Estándares y políticas éticas: Establecer y mantener directrices éticas sólidas para el uso de la IA.
  3. Responsabilidad: fefinir claramente las responsabilidades y garantizar mecanismos para corregir errores.
  4. Equidad y mitigación de sesgos: auditar regularmente los sistemas de IA para identificar y reducir sesgos.
  5. Privacidad y seguridad de datos: proteger la información de la audiencia y usarla de manera ética.
  6. Servicio a la audiencia y bien público: priorizar las necesidades del público y contribuir al bien común.
  7. Supervisión humana: asegurar que la IA complemente y no reemplace el juicio humano.
  8. Divulgación educativa: implementar programas que mejoren la alfabetización en IA tanto de periodistas como del público.
  9. Sostenibilidad: evaluar el impacto a largo plazo de las herramientas de IA en el periodismo y la sociedad.

Fuente: Laboratorio de Periodismo