Lyndsey Jones, consultora editorial, experta en transformación digital, asesora estratégica y entrenadora, comparte sus puntos de vista sobre cómo navegar en un mundo de IA donde es probable que haya una mayor explosión de creación de contenido en un mercado superpoblado.

AI: ¿Qué tan asustados deberíamos estar? 
La IA podría reemplazar 300 millones de puestos de trabajo. 
Casi 50 sitios web de noticias son generados por IA. 
El padrino de la IA abandona Google y advierte sobre los peligros de la desinformación.

Todos estos titulares, y más, se han publicado en las últimas semanas. Sin duda, la disrupción está aquí, y los modelos de inteligencia artificial generativa (GAI), como ChatGPT de Open AI, han desatado mucho ruido sobre su impacto en la industria de los medios y cómo pueden dar forma a su futuro.

La precisión y la confianza están en el centro de estos problemas, así como el impacto en los puestos de trabajo.

El potencial para transformar la mayoría de los roles, si no todos, es claro. Todos, desde reporteros y editores de noticias hasta altos ejecutivos y trabajos administrativos en recursos humanos, marketing y contabilidad, probablemente se verán afectados.

Muchos grupos de noticias ya usan alguna forma de automatización, como listas generadas por IA o videos animados claramente etiquetados como contenido automatizado. Kuwait News fue más allá recientemente con un presentador de noticias generado por IA.

Sin duda, las herramientas de GAI harán que las salas de redacción sean más eficientes con flujos de trabajo más optimizados que pueden reducir horas de un día laboral actual, creando tiempo para investigaciones laboriosas y creación de contenido.

Los periodistas pueden y también usarán GAI para generar ideas, guiones gráficos y dar forma a los pensamientos. Deberán estar atentos e investigar antes de usarlos para limitar el riesgo de informes inexactos porque las herramientas no solo pueden cometer errores, llamados «alucinaciones», sino que también pueden contener sesgos, ya que en gran parte han sido desarrollados por una fuerza laboral masculina blanca de EE. UU.

Estas prácticas generarán preguntas para las organizaciones de noticias, con respecto a la formulación y la transparencia en torno a las políticas de toda la empresa, y mucho menos una regulación más amplia de la IA a nivel mundial.

Los grupos de noticias deberán considerar lo siguiente:

  • Transparencia: para que los usuarios puedan comprender cómo se usa y funciona la IA
  • Ética: la IA debe implementarse de manera que respete los estándares éticos, como la responsabilidad, la equidad y la privacidad
  • Calidad de los datos: revise y controle la calidad de sus datos, que pueden estar sesgados y, si no se controlan, pueden sesgar los resultados
  • Métodos de verificación: la verificación de hechos, la verificación de la fuente de origen y el monitoreo deben fortalecerse e integrarse en las salas de redacción
  • Conjuntos de habilidades del personal: la capacitación en habilidades de IA debe ser primordial para que los departamentos editoriales puedan comprender y considerar el impacto en el periodismo
  • Colaborar con científicos de datos y periodistas para garantizar el mejor uso posible de la IA.

Estos temas son importantes debido al desafío de confianza que enfrentan las organizaciones de noticias. La confianza en las noticias está en declive: solo el 42% de las personas en todo el mundo dicen que confían en los principales medios de comunicación, según una  encuesta del Instituto de Periodismo de Reuters .

La confianza es uno de los temas más transversales en innovación. Se trata de creer que algo es de alta calidad, honesto, confiable y preciso.

Uno de los problemas para las salas de redacción es que cada vez es más fácil crear fotos falsas que incluso pueden relacionarse con noticias reales, como las imágenes falsas virales del arresto de Donald Trump.

Las marcas de renombre pueden publicar fácilmente este tipo de falsificaciones. Por ejemplo, el Irish Times tuvo que disculparse recientemente por una historia falsa de AI sobre el uso de bronceadores falsos por parte de las mujeres. O pueden volverse virales, como la foto falsa generada por IA de una explosión en el Pentágono que provocó una breve caída en el mercado de valores de EE. UU.

Las imágenes falsas no significarán necesariamente que las personas sean engañadas más fácilmente, pero podrían volverse más escépticas con respecto a la información, lo que empujaría al periodismo a una posición vulnerable.

Para los grupos de noticias, ser una fuente confiable de información también es parte integral de la propuesta de valor de la empresa.

Entonces, ¿qué deberían hacer los grupos de medios a medida que aumenta el peligro de información errónea, desinformación e influencia? Deben establecer salvaguardas tales como:

  • Establezca pautas sobre cómo usar la IA generativa y publíquelas en su sitio web para mayor transparencia. Ver los ejemplos de  Wired o Financial Times.
  • Etiquete claramente el contenido generado por IA y obtenga vigorosamente su material para generar confianza con los usuarios.
  • Mejorar  una mesa de verificación y monitoreo de hechos, incluido el origen de las imágenes.
  • Siempre tenga un periodista en el flujo de trabajo de la sala de redacción de IA y el Editor debe seguir siendo el responsable final de todo el contenido publicado.

Finalmente, es probable que los grupos de noticias que sobrevivan al impacto de GAI tengan rasgos similares. Estarán preparados, son flexibles y pueden adaptarse rápidamente al cambio. También es probable que tengan altos niveles de confianza y responsabilidad.

Estos rasgos los ayudarán a navegar en un mundo de IA donde es probable que haya una mayor explosión de creación de contenido en un mercado superpoblado. Estos grupos deberían poder elaborar su propuesta de valor rápidamente y continuar diferenciándose en un mercado donde los usuarios considerarán si les importa lo suficiente como para pagar por el contenido creado por una persona.

Fuente: WAN-IFRA, traducido por Adepa.