Un nuevo informe resume el trabajo de la cumbre de Poynter que reunió a los principales periodistas, líderes de productos y expertos en tecnología.

Descargue un PDF del informe completo , “Cumbre Poynter sobre IA, ética y periodismo: la audiencia y la ética en primer lugar”.

La tecnología de inteligencia artificial generativa, que avanza rápidamente, y el periodismo han convergido durante el año electoral más importante de la historia. A medida que más redacciones experimentan con la IA, la necesidad de pautas éticas y de retroalimentación de la audiencia han surgido como desafíos clave.

El Instituto Poynter reunió a más de 40 líderes de salas de redacción, tecnólogos, editores y periodistas durante su Cumbre sobre IA, ética y periodismo para abordar ambos temas. Durante dos días en junio de 2024, representantes de Associated Press, The Washington Post, Gannett, Invisible Institute, Hearst, McClatchy, Axios y Adams, junto con OpenAI, Online News Association, American Press Institute, Northwestern University y otros, debatieron el uso de la IA generativa y su lugar dentro de la ética en evolución del periodismo.

Los objetivos: actualizar la guía de ética de la IA de Poynter para las salas de redacción con información de periodistas, editores, gerentes de productos y tecnólogos que realmente utilizan las herramientas, y esbozar principios para el desarrollo ético de productos de IA que puedan ser utilizados por un editor o una sala de redacción para dar prioridad a los lectores.

Los datos de los grupos de discusión convocados a través de una asociación entre Poynter y la Universidad de Minnesota subrayaron el debate, mientras que un hackathon puso a prueba a los asistentes para diseñar herramientas de inteligencia artificial basadas en la confianza de la audiencia y la ética periodística.

Conclusiones clave:

  • Existe una gran ansiedad y desconfianza entre el público con respecto a la IA en el periodismo, exacerbada por las preocupaciones sobre la seguridad laboral y los motivos detrás del uso de la IA.
  • En gran medida, el público quiere que se le informe cuándo se utiliza IA en la producción de noticias.
  • Es necesario divulgar información clara y específica sobre cómo se utiliza la IA en la producción de noticias para evitar la fatiga de las etiquetas y mantener la confianza de la audiencia.
  • La privacidad de los datos es una preocupación que se suele pasar por alto considerablemente en la implementación de herramientas de inteligencia artificial en las salas de redacción y debería abordarse.
  • Se anima a las salas de redacción a experimentar con IA para descubrir nuevas capacidades e integrar estas herramientas cuidadosamente en sus flujos de trabajo.
  • La retroalimentación continua de la audiencia y la participación en el proceso de desarrollo de la IA son esenciales para crear productos noticiosos relevantes y confiables.
  • Las organizaciones de noticias deberían invertir en iniciativas de alfabetización en IA para ayudar tanto a los periodistas como al público a comprender las capacidades y limitaciones de la IA, fomentando un entorno más informado y colaborativo.

Poynter creó un chatbot con tecnología ChatGPT para responder preguntas o resumir las sesiones de la cumbre. Échale un vistazo aquí .

Los siguientes miembros del personal de Poynter contribuyeron a este informe: Alex Mahadevan, Kelly McBride, Tony Elkins, Jennifer Orsi, Barbara Allen

Escuchar a la audiencia: perspectivas de los grupos de discusión de Poynter-University of Minnesota

La audiencia fue la palabra clave que surgió durante la Cumbre Poynter sobre IA, ética y periodismo. En concreto, cómo hablar con los lectores sobre IA, mejorar sus vidas y resolver sus problemas, no solo los de la industria periodística.

Poynter se asoció con Benjamin Toff, director del Centro de Periodismo de Minnesota y profesor asociado de la Escuela Hubbard de Periodismo y Comunicación de Masas de Minnesota, para organizar una serie de grupos de discusión para debatir sobre la IA con consumidores de noticias representativos. Algunas de las conclusiones clave que encontró Toff incluyen:

  • Un contexto de fondo de ansiedad y fastidio: las personas suelen sentirse ansiosas por la IA, ya sea por la preocupación de lo desconocido, de que afecte a sus propios empleos o sectores, o de que dificulte la identificación de noticias fiables. También les molesta la explosión de ofertas de IA que están viendo en los medios que consumen.
  • Deseo de divulgación: los consumidores de noticias tienen claro que quieren que los periodistas revelen cómo utilizan la IA, pero hay menos consenso sobre cuál debería ser esa divulgación, cuándo debería utilizarse y si a veces puede ser demasiado.
  • Aumento del aislamiento: Temen que un mayor uso de la IA en el periodismo empeore el aislamiento social entre las personas y perjudique a los humanos que producen nuestra cobertura informativa actual.

Ansioso y molesto

Algunos participantes se sintieron asediados por las ofertas de IA en línea.

“Lo he notado más en las redes sociales, es como si estuviera ahí. ‘¿Quieres usar esta función de IA?’ y está ahí mismo. Y no estaba ahí hace tanto tiempo. … Es casi como, ¡no, no quiero usarla! Así que es como si te lo impusieran”, dijo una participante llamada Sheila.

La mayoría de los participantes ya habían expresado su desconfianza hacia los medios de comunicación y sentían que la introducción de la IA podría empeorar las cosas. 

Los grupos de discusión sugieren que quizás el mayor error que pueden cometer las redacciones es la implementación de todo lo relacionado con la IA. En lugar de despertar asombro en nuestras audiencias, ¿las vamos a molestar?

Un hallazgo notable de los grupos focales fue que muchos participantes sentían que cierto uso de IA para crear periodismo (especialmente cuando se trataba de usar grandes modelos de lenguaje para escribir contenido) parecía una trampa.

“Creo que es interesante que intenten hacer pasar esto como si fuera un escritor, pero no lo es. Entonces, honestamente, me siento engañado. Porque sí, no hay nadie que lo revise físicamente”, dijo un miembro del grupo de discusión.

La mayoría de los participantes dijeron que querían saber cuándo se utilizaba IA en las noticias, y la divulgación es parte de muchas políticas éticas de IA en las salas de redacción. 

Pero algunos dijeron que no importaba si se trataba de contenido simple y de “bajo riesgo”. Otros dijeron que querían citas extensas, como “un artículo académico”, independientemente de si se involucraban con ellos o no. Sin embargo, a otros les preocupaba la “fatiga de etiquetado”, ya que tanta divulgación planteaba preguntas sobre las fuentes de sus noticias que tal vez no tuvieran tiempo de digerirlas todas.

“La gente realmente sentía una gran necesidad de hacerlo y quería evitar ser engañada”, dijo Toff, un ex periodista cuya investigación académica a menudo se ha centrado en las audiencias de las noticias y la relación del público con ellas. “Pero al mismo tiempo, no había mucho consenso sobre cuánto o cómo debería ser exactamente la divulgación”. 

Algunos de los participantes del grupo de debate plantearon una cuestión similar, dijo Toff. “En realidad, no creían que (las redacciones) revelarían información, por mucho que las directrices editoriales insistieran en que lo hicieran. No creían que hubiera procedimientos internos para hacerla cumplir”.

Será de vital importancia la forma en que los periodistas le digan a su audiencia lo que están haciendo con la IA, dijo Kelly McBride , vicepresidenta senior de Poynter y presidenta del Centro Craig Newmark para la Ética y el Liderazgo . Y probablemente ni siquiera deberían usar el término IA, dijo, sino descripciones más precisas del programa o la tecnología que usaron y para qué.

Por ejemplo, dijo, explique que utilizó una herramienta de inteligencia artificial para examinar miles de imágenes satelitales de una ciudad o región y decirle a los periodistas qué había cambiado con el tiempo para que pudieran realizar más informes.

“No tengo ninguna duda de que en los próximos cinco a diez años la IA va a cambiar drásticamente la forma en que hacemos periodismo y cómo lo presentamos a la audiencia”, dijo McBride. “Y si no educamos a la audiencia, seguramente desconfiarán mucho y no confiarán en cosas en las que deberían confiar. Y posiblemente confíen en cosas en las que no deberían confiar”.

El factor humano

Varios participantes expresaron su preocupación por el hecho de que el uso creciente de la IA podría llevar a la pérdida de puestos de trabajo para periodistas humanos. Y muchos se mostraron desconcertados por el ejemplo que les mostró el equipo de Toff de un presentador generado por IA que leía las noticias. 

“Yo animaría (a las organizaciones de noticias) a pensar en cómo pueden utilizar esto como herramienta para cuidar mejor a los empleados humanos que tienen. Así que, ya sea para, ya sabes, utilizar esto como una herramienta para dar a sus empleados humanos… la oportunidad de hacer algo para lo que no tienen suficiente tiempo… o para crecer de formas nuevas y diferentes”, dijo un participante, quien añadió que podía ver a la dirección “utilizando esta herramienta para encontrar formas de sustituir o deshacerse de los empleados humanos que tienen”. 

“Si todo el mundo utiliza IA, todas las noticias sonarán igual”, afirmó un participante. 

Otro miembro del grupo de debate dijo: “Esa es mi principal preocupación global sobre lo que estamos hablando. El elemento humano. Esperemos que no sea reemplazado por la inteligencia artificial, o que se vuelva tan poderosa que no haga muchas de estas tareas, tareas humanas, ¿sabes? Creo que muchas cosas tienen que seguir siendo humanas, ya sea un error o la perfección. El elemento humano tiene que permanecer”. 

Avanzando

Toff todavía tiene mucho que aprender de los resultados de los grupos de discusión, pero las actitudes de los consumidores pueden ofrecer algunas ideas importantes para el futuro de las organizaciones de noticias que atraviesan dificultades económicas. 

A medida que avanza la IA, parece muy probable que se puedan entregar noticias e información directamente a los consumidores, reduciendo al mismo tiempo su conexión con las organizaciones de noticias que produjeron la información en primer lugar. 

“La gente habló sobre algunas de las formas en que podrían ver que estas herramientas facilitarían mantenerse al día con las noticias, pero eso significaba mantenerse al día con las noticias de maneras en las que ya eran conscientes de que no estaban prestando atención a quién informaba qué”, dijo Toff.

Aun así, y con cierta esperanza para los periodistas, varios miembros de los grupos de debate expresaron gran preocupación por el importante papel humano en la producción de buen periodismo.

“Varias personas plantearon preguntas sobre las limitaciones de estas tecnologías y sobre si había aspectos del periodismo que realmente no se deberían reemplazar con una máquina”, dijo Toff. “Al unir los puntos y descubrir información, se reconoce que existe una necesidad real de periodistas humanos sobre el terreno, pero existe mucho escepticismo sobre si estas herramientas podrían generarlas alguna vez”.

Una visión general de la IA en la sala de redacción

Nikita Roy , becaria Knight del Centro Internacional para Periodistas y presentadora del podcast Newsroom Robots , y Phoebe Connelly , editora sénior de estrategia e innovación en inteligencia artificial del Washington Post, expusieron los proyectos de inteligencia artificial en las redacciones y cómo pueden orientar el uso ético de la tecnología. A continuación, se presentan las conclusiones clave de la sesión:

  • Han surgido herramientas de inteligencia artificial para hacer la transición del periodismo de largo plazo a viñetas y resúmenes.
  • Las redacciones deberían priorizar la posibilidad de “charlar” con los usuarios sobre su contenido, haciéndolo escalable y buscable. Deberían pensar seriamente en la mecánica de cómo los usuarios interactuarán con las palabras, desde los toques hasta los deslizamientos.
  • Varias redacciones están utilizando inteligencia artificial para filtrar las transcripciones de las reuniones gubernamentales y están entrenando a los sistemas para escribir las historias o para reforzar sus informes sobre el gobierno local. No es una hipótesis.

Algunas redacciones han intentado aprovechar la inteligencia artificial para su periodismo y sus negocios con distintos grados de éxito. Roy dijo que los proyectos de inteligencia artificial para redacciones que ve generalmente caen en una de cuatro categorías:

  • Creación de contenido, que incluye herramientas que generan titulares o publicaciones en redes sociales.
  • Optimización del flujo de trabajo, que incluye herramientas de transcripción y corrección de textos.
  • Análisis y monitoreo, que incluye optimización de muros de pago y herramientas que pueden predecir la pérdida de clientes.
  • Herramientas orientadas a la audiencia, que incluyen chatbots interactivos y resúmenes de artículos.

Los periodistas tienen la obligación, tanto por ellos mismos como por sus audiencias, de familiarizarse con las herramientas de inteligencia artificial, afirmó Roy. La inteligencia artificial no solo puede ayudar a los periodistas con su propio trabajo, sino que comprenderla es clave para exigir responsabilidades a las empresas tecnológicas.

“Hay tantas decisiones políticas, tanta legislación que no se ha solucionado”, dijo Roy. “Estamos en un espacio muy maleable en el que nos encontramos con la IA, y aquí es donde necesitamos que los periodistas sean las personas que entiendan profundamente la tecnología porque solo así se puede aplicar”.

El Washington Post ha adoptado un enfoque cauteloso, aunque ambicioso, en relación con la inteligencia artificial generativa en la sala de redacción, con el reciente lanzamiento de Climate Answers. La interfaz de chat impulsada por inteligencia artificial permite a los lectores hacer preguntas sobre el cambio climático y obtener una respuesta sucinta basada en ocho años de informes del Post.

Algunos antecedentes importantes:

  • Se basa únicamente en la cobertura del equipo climático del Post, lo que genera un riesgo muy bajo o inexistente de alucinaciones, que es un término para las falsedades generadas por grandes modelos de lenguaje. El concepto de generación aumentada por recuperación (obtener respuestas de sus propios archivos o bases de datos) puede ayudar a las redacciones a aprovechar la IA generativa sin comprometer la ética periodística.
  • Si no encuentra un artículo sobre el clima adecuado, no responderá. ChatGPT y otros chatbots de búsqueda generativa siempre intentarán darte una respuesta, lo que genera alucinaciones y otros problemas.
  • Estuvo en proceso durante seis meses.
  • Su divulgación es una excelente plantilla para otras salas de redacción y ofrece un enlace a preguntas frecuentes y un formulario de comentarios de la audiencia.

El Post también ha lanzado resúmenes de artículos y ha lanzado una herramienta interna llamada Haystacker , que utilizará inteligencia artificial para examinar y clasificar miles de videos e imágenes. Notarás que todas estas herramientas impulsadas por inteligencia artificial están al servicio de la audiencia; incluso Haystacker permitirá a los equipos de análisis forense visual del Post encontrar más historias para los lectores.

Algunas otras herramientas de IA mencionadas por los panelistas y los miembros de la audiencia:

  • Quizbots, diseñados para interactuar con los lectores con datos triviales sobre las noticias locales. Existen empresas de terceros que ofrecen estas soluciones, pero algunas organizaciones de noticias las están desarrollando internamente.
  • Una sala de redacción está desarrollando una solución para transcripciones de reuniones utilizando el modelo Whisper de OpenAI . 
  • Otro editor está utilizando IA para potenciar su podcast y crear TikToks.
  • Una sala de redacción local ha creado un reportero completamente basado en inteligencia artificial, con nombre y personalidad incluidos.

La ética al encuentro del momento

El auge de la IA generativa no es la primera ocasión en que el periodismo se enfrenta a la ética en medio de una tecnología cambiante. Tony Elkins, miembro de la facultad de McBride y Poynter, presentó una historia de dilemas éticos en el periodismo y una guía sobre cómo las salas de redacción pueden afrontar este momento. Algunas conclusiones clave:

  • Las políticas éticas del periodismo no se parecen a ningún otro sistema de toma de decisiones éticas (incluidos los médicos o los legales). Si bien muchas organizaciones de noticias tienen políticas sólidas, la industria no está autorizada y no existe un organismo rector con consecuencias formales. Y lo que es más importante, los periodistas no hacen un buen trabajo al explicar nuestros valores y estándares a la audiencia. Como resultado, los consumidores de noticias no comprenden nuestro trabajo y la confianza se ha erosionado con el tiempo.
  • La tecnología está cambiando muy rápidamente. La industria del periodismo ha creado estándares éticos replicables basados ​​en valores democráticos. Las empresas tecnológicas tienen un conjunto de valores completamente diferente, y su trabajo y sus productos no se basan en la búsqueda de la verdad, por lo que no van a caminar a nuestro lado. Dependerá de los periodistas distinguir nuestros estándares éticos. A medida que la IA se convierte en parte de las actualizaciones de software, es responsabilidad de los administradores y profesionales mantenerse actualizados sobre las funciones mejoradas de la IA. 
  • Nuestro objetivo es respaldar la creación de productos de noticias con la ética incorporada en el diseño del producto, de modo que comprendamos lo que la audiencia necesita saber sobre nuestros estándares y nuestro trabajo. Cualquier producto de IA debe satisfacer una necesidad del consumidor y responder las preguntas de la audiencia.

A medida que la tecnología, en particular la inteligencia artificial, avanza a un ritmo vertiginoso, se presentan nuevos desafíos para mantener la integridad periodística. A diferencia del periodismo, las empresas tecnológicas operan con un conjunto diferente de valores, priorizando la innovación y la participación del usuario por sobre la verdad y la rendición de cuentas. 

Esta divergencia crea una necesidad crítica de que los periodistas establezcan y defiendan sus estándares éticos de manera independiente. La sesión destacó la manipulación de imágenes y el contenido generado por inteligencia artificial que difuminan los límites de la realidad para el público, lo que subraya la urgencia de que la industria del periodismo defina y defienda los estándares éticos frente a estos cambios tecnológicos. Algunos ejemplos de Elkins fueron:

  • Históricamente, la revista Time oscureció infamemente una foto de O.J. Simpson en su portada.
  • Durante la Guerra del Golfo, un fotógrafo de Los Angeles Times fue despedido por fusionar dos fotografías para crear una nueva e impactante foto para el periódico.
  • Más recientemente, Associated Press tuvo que retractarse de una fotografía de Kate Middleton, princesa de Gales, que probablemente fue manipulada con inteligencia artificial.

Nuevas herramientas, como Sora de OpenAI, Vasa-1 de Microsoft y Adobe Firefly, harán aún más fácil contaminar el ecosistema de información.

McBride también presentó preguntas que nosotros como industria debemos abordar: 

  • ¿Cómo podemos hacer que nuestra propia IA sea transparente? ¿Deberíamos siquiera utilizar el término? ¿Deberíamos evolucionar nuestro vocabulario?
  • ¿Cómo podemos hacer transparente la IA creada por otros?
  • ¿Cómo educamos al público sobre el impacto de la IA en las percepciones de la realidad?
  • ¿Cómo podemos asegurarnos de que comprendemos la autenticidad del material sobre el que informamos?
  • ¿Cómo contribuimos a una conversación saludable sobre esto? 
  • ¿Cómo evitamos contaminar el mercado público? 

El hackathon

La cumbre incluyó un hackathon, en el que periodistas, tecnólogos y especialistas en ética se propusieron desarrollar soluciones basadas en IA que aborden los desafíos que enfrentan las redacciones modernas. Los participantes tuvieron la tarea de crear herramientas y productos que sirvan a la audiencia, mejoren los flujos de trabajo de las redacciones y se ajusten a los estándares éticos. El hackathon sirvió como un microcosmos de los debates más amplios de la cumbre, enfatizando la importancia de integrar la ética en el diseño de la IA y mostrando al mismo tiempo el potencial creativo de la tecnología para transformar el futuro de las noticias.

Conclusiones clave:

  • Es muy valioso buscar la opinión de la audiencia en cada etapa del proceso de desarrollo del producto.
  • La privacidad de los datos es un aspecto importante de las herramientas de IA generativa al que no se suele hacer referencia en estos debates, pero debería ser así.
  • Existen grandes desafíos en torno a la verificación y evaluación de grandes conjuntos de datos.
  • Oportunidad de redefinir el valor del periodismo para las audiencias como conector, respondedor, solucionador, empoderador, fuente confiable e incluso colaborador. También para llegar a nuevas audiencias. 
  • Otra opción sencilla es centrarse en una parte clave de la demostración y adoptar un enfoque iterativo.

El hackathon dio lugar a seis tecnologías imaginadas, que abarcaban desde aplicaciones y sitios web hasta software. Todas las invenciones teóricas buscaban ayudar a las personas, responder preguntas y mejorar la calidad de vida de los espectadores de noticias. Si bien el ejercicio era teórico, un grupo está tomando medidas para intentar llevar adelante y obtener financiación para su idea, un calendario comunitario impulsado por inteligencia artificial. 

A medida que los grupos de trabajo conceptualizaban sus visiones, identificaron numerosas consideraciones éticas. A continuación, se detallan las conclusiones a las que llegaron algunos de ellos y lo que aprendieron a través de este ejercicio.

Vota amigo

La editora en jefe de PolitiFact, Katie Sanders, ayudó a conceptualizar una herramienta que serviría como guía para las elecciones locales.

Vote Buddy estaba destinado a ser un producto de noticias locales, que requería información detallada sobre los distritos electorales, los candidatos y sus posiciones. A medida que su equipo analizaba el experimento, se fueron acumulando detalles aparentemente interminables, dijo, lo que exigía cada vez más poder periodístico.

Su equipo notó casi inmediatamente que “las preocupaciones éticas eran abundantes”.

Comenzaron por plantear preguntas difíciles sobre el uso y los usuarios. Sanders dijo que era importante entender exactamente lo que el equipo quería crear, considerar los problemas que resolvería para los usuarios y asegurarse de que existiera una necesidad real; y si los miembros de la audiencia/usuarios se sentirían cómodos con los medios por los cuales la herramienta de IA proporcionaba la información. 

“Cuando empezamos a pensar en cómo podría ser este servicio, también nos dimos cuenta de la cantidad de mano de obra necesaria para llevarlo a cabo y mantenerlo”, afirmó. “La experiencia me demostró que la calidad de un producto depende de la cantidad de tiempo y energía que se dedique al proyecto”.

El hecho de que sea un producto de inteligencia artificial, dijo, no significa que no consumirá recursos, especialmente cuando se trata de probar y eliminar cualquier inexactitud. 

“Las alucinaciones en torno a algo tan serio como el voto de alguien son simplemente inaceptables”, afirmó. “Me sentí mejor por haber pasado por la experiencia, por haber imaginado lo que se necesitaría”.

Historia viviente

Mitesh Vashee, director de productos y tecnología de Houston Landing, dijo que muchos periodistas simplemente le tienen miedo a la IA, lo que crea una barrera para que los periodistas aprendan a usarla, especialmente de manera ética. 

Dijo que es útil para los periodistas comenzar su viaje hacia el uso ético de la IA experimentando con herramientas de IA y descubriendo usos prácticos para ellas en su trabajo diario. De esa manera, «no es solo una idea grande, vaga y nebulosa», dijo, «sino una aplicación del mundo real que me ayuda en mi día a día. ¿Cuál es la puerta que podemos abrir a este mundo?»

Su grupo conceptualizó Living Story, un “widget público que aparece a nivel de artículo y permite a los lectores interactuar con la historia haciendo preguntas”.

Vashee dijo que el temor de los periodistas de que la IA los reemplace ha sido un tema central en muchas de sus conversaciones. 

“En Houston Landing hemos dejado claro que no publicaremos ni una sola palabra generada por inteligencia artificial, todo es periodismo”, afirmó. “Está escrito por nuestros periodistas, editado por nuestros editores, etc. Dicho esto, el proceso editorial puede volverse más eficiente”. 

Dijo que a medida que las salas de redacción buscan implementar nueva tecnología para ayudar con la eficiencia, es necesario realizar más trabajo para definir roles. 

“¿Cuál es realmente el trabajo de un periodista? ¿Cuál es el trabajo de un editor? ¿Y cuál es el trabajo en el ámbito tecnológico? No sé cuál es la respuesta completa hoy en día, pero es en eso en lo que trabajaremos”.

El plan familiar

Un grupo del hackathon se identificó menos con el periodismo cotidiano y más con cuestiones teóricas adyacentes al periodismo.

“Nuestro grupo estaba formado principalmente por educadores y personas del ámbito periodístico, más que periodistas en activo”, dijo Erica Perel, directora del Centro de Innovación y Sostenibilidad en Medios Locales de la Universidad de Carolina del Norte. “El producto que creamos abordaba los prejuicios, la confianza y la polarización”.

El Plan Familiar fue un concepto que ayudó a las personas a comprender qué medios de comunicación consumían sus seres queridos y sugirió formas de hablar sobre puntos de vista dispares sin juzgar ni persuadir.

Sus mayores preocupaciones éticas se centraron en la privacidad y la seguridad de los datos.

“¿Cómo comunicaríamos estas preocupaciones sobre privacidad y seguridad? ¿Cómo incorporaríamos el consentimiento y la transparencia en el producto desde el principio?”, dijo. “Y, ¿cómo no esperar hasta el final para decir: ‘Ah, sí, esto podría ser perjudicial para las personas. Vamos a averiguar cómo mitigarlo’?”.

Lente de la ciudad

El equipo del hackathon detrás de CityLens lo imaginó como una herramienta gratuita basada en navegador que usaría tecnología interactiva para ayudar a los usuarios a aprender sobre su entorno local y actuar en consecuencia.

Las cámaras de los teléfonos inteligentes capturarían una imagen local y luego los usuarios podrían ingresar preguntas o inquietudes, que teóricamente los llevarían a información útil, incluyendo, «cómo informar un problema a la entidad correcta, si hay un proyecto público en desarrollo en ese lugar y qué ya han informado los periodistas», según las diapositivas del equipo.

También ofrecería una plantilla de correo electrónico para informar problemas como intersecciones peligrosas, restaurantes insalubres, violaciones del código, dispositivos de tráfico que funcionan mal, etc.

“Me gustó mucho el enfoque en la audiencia”, dijo Darla Cameron, directora de productos interina de The Texas Tribune. “El enfoque de todo el evento fue: ¿cómo afectan estas herramientas a nuestra audiencia? Eso es algo en lo que no hemos pensado lo suficiente, francamente”.

Cameron dijo que para su grupo las preocupaciones éticas tenían que ver con los límites y el papel de los periodistas. 

Dijo que varios de los grupos se enfrentaron a preguntas sobre los límites entre la creación periodística de datos y la recopilación de datos personales por parte de las empresas tecnológicas. 

“¿Cómo puede el periodismo crear sistemas que personalicen la información para nuestras audiencias sin cruzar esa línea?”, preguntó, señalando que también existía la preocupación de que los periodistas estuvieran demasiado involucrados. “Al crear una herramienta que la gente puede usar para interactuar potencialmente con el gobierno de la ciudad… ¿estamos infiltrándonos en un intermediario donde no tenemos por qué estar?”

Omni

Omni es “una plataforma de noticias personalizada que ofrece el contenido más relevante y atractivo adaptado a tus preferencias y estilo de vida”, según la presentación del grupo que la creó.

Adriana Lacy, periodista premiada y fundadora de una firma de consultoría homónima, explicó que el grupo comenzó con algunos nervios por su conocimiento de la tecnología.

Sin embargo, los miembros encontraron rápidamente su equilibrio y sus preocupaciones éticas. Se hizo evidente que para que Omni funcionara, sus inventores tendrían que lidiar con los problemas éticos relacionados con la recopilación de datos personales, afirmó.

“Nuestro objetivo era descubrir cómo podemos tomar la información… y convertirla en distintos modos de comunicación, ya sea un podcast para gente a la que le gusta escuchar cosas, un vídeo para gente a la que le gusta ver vídeos, una historia para gente que prefiere leer”, dijo Lacy. “Básicamente, compilar información en algo que sea súper personalizado”.

Gran parte de la información que necesitarían recopilar eran esencialmente datos de primera mano.

“Tuvimos algunas conversaciones sobre cómo podríamos lograr que los lectores aceptaran éticamente esta cantidad de recopilación de datos y cómo podríamos cumplir con las normas en ese aspecto”, dijo Lacy. “También discutimos cómo podríamos almacenar de manera segura tanta información”.

Su otra gran preocupación ética era descubrir cómo podían integrar el proceso periodístico en el proyecto.

“Gran parte de nuestra idea era tomar los escritos, videos y audios de los periodistas y convertirlos en una alerta rápida, un video para redes sociales, un podcast, una alerta de audio para Alexa o Google Home, en cualquier lugar donde elijas estar al tanto”, dijo. “La pregunta sigue siendo: ¿cómo podemos aplicar nuestra ética y nuestro proceso periodísticos a todos estos diferentes tipos de medios?” 

Calindrico

Un equipo incluso está buscando lanzar un producto real basado en su sesión en Poynter.

Dean Miller, editor en jefe de LeadStories.com, dijo que su equipo de cuatro personas se centró en “la magia de la creación de comunidades a través de calendarios granulares basados ​​en las salas de redacción locales”.

Dijo que su idea, Calindrical, aportaría valor real a las familias ocupadas y tiempo muy necesario a las salas de redacción, por lo que el grupo ha comprado URL específicas y está trabajando en el papeleo para hacer realidad la idea. 

“Nuestro objetivo es una interfaz casi nula”, dijo. “Piense en mamá llevando a su hijo al fútbol, ​​llamando o enviando mensajes de texto para preguntar cuándo y dónde es el espectáculo de batería de su hija esta noche, y recibiendo la información de inmediato y enviándosela a la abuela y al papá”.

Miller dijo que el grupo propone utilizar IA tanto para recopilar información de eventos como para comunicarse “asiduamente” con los organizadores para verificar.

Dijo que el enfoque de Poynter en la ética de la IA era útil y necesario.

“El proceso de hackathon fue una forma temprana y rápida de sacar a la luz suposiciones erróneas”, dijo Miller. “Nos animó a centrar nuestro pensamiento en la protección de la privacidad, la seguridad de los datos, el poder del usuario y cómo evitar las depredaciones de las empresas establecidas en Silicon Valley”.

Principios del desarrollo ético de productos de IA

Durante el hackathon, los equipos se reunieron periódicamente con los expertos de Poynter para analizar los obstáculos éticos que se presentan al desarrollar sus herramientas de IA. La privacidad de los datos fue un problema evidente, al igual que la precisión y las alucinaciones. A partir de un día de conversaciones y de una rápida generación de ideas para el producto, Poynter desarrolló una lista de nueve principios para el desarrollo ético de productos de IA.

Estos principios son lo más universales posible para cualquier sala de redacción, pero no son mandatos en ningún sentido. Por ejemplo, probablemente no encontrará una empresa de inteligencia artificial de terceros que se adhiera a una ética periodística perfecta y que esté dispuesta a firmar un compromiso para hacerlo.

Pero esperamos que estos principios guíen un proceso de desarrollo que priorice la confianza y el servicio de la audiencia. Recuerde que está intentando resolver los problemas de sus lectores mediante inteligencia artificial, no los suyos propios.

1. Transparencia

  • Proceso de desarrollo abierto : ser transparente sobre el proceso de desarrollo de herramientas de IA, incluidos los objetivos, las metodologías y las posibles limitaciones de la tecnología.
  • Participación de las partes interesadas : involucrar a una amplia gama de partes interesadas, incluidos especialistas en ética, tecnólogos, periodistas y representantes de la audiencia, en el proceso de desarrollo de la IA.
  • Divulgaciones claras : siempre proporcione divulgaciones claras y detalladas sobre cómo se utiliza la IA en la creación de contenido. Esto incluye especificar el papel de la IA en la generación, edición o selección de contenido. ( Consulte las pautas éticas ).
  • Participación de la audiencia : involucrar a la audiencia en la comprensión de los procesos de IA mediante explicaciones accesibles y actualizaciones periódicas sobre el uso de IA. (Consulte las pautas éticas).

2. Normas y políticas éticas

  • Pautas integrales : desarrollar y aplicar pautas éticas integrales para el uso de la IA en el periodismo, que cubran todos los aspectos, desde la creación de contenido hasta la interacción con la audiencia (consulte las pautas éticas).
  • Acuerdos de contratación: cree un contrato (o incorpore en sus acuerdos de contratación los principios éticos que espera que respeten las organizaciones de terceros al trabajar con su sala de prensa). Puede que esto no sea necesariamente exigible, pero debería intentar alinear sus principios éticos de IA con los de las empresas a las que les está adquiriendo herramientas y sistemas.
  • Revisiones periódicas : realizar revisiones periódicas de las pautas éticas para garantizar que sigan siendo relevantes y efectivas frente a la evolución de las tecnologías de IA.

3. Responsabilidad

  • Responsabilidades definidas : establecer mecanismos claros de rendición de cuentas para el contenido generado por IA. Identificar quién es responsable de supervisar los procesos de IA y abordar cualquier problema que surja.
  • Políticas de corrección : implementar procesos sólidos (públicos) para corregir errores o abordar el uso indebido de herramientas de IA, garantizando correcciones rápidas y transparentes.

4. Equidad y mitigación de sesgos

  • Auditorías de sesgo : auditar periódicamente los sistemas de IA para detectar sesgos y tomar medidas proactivas para mitigar los que se hayan identificado. Esto incluye diversificar los datos de entrenamiento e implementar controles y contrapesos. Además, el sesgo de los datos debe ser una característica fundamental en el entrenamiento regular de IA en las salas de redacción.
  • Diseño inclusivo : Asegúrese de que las herramientas de IA estén diseñadas para ser inclusivas y considerar las diversas experiencias y perspectivas de diferentes comunidades. Los comités y equipos de IA que desarrollan herramientas de IA deben ser tan diversos como la sala de redacción y, preferiblemente, reflejar la demografía de la audiencia a la que se dirigirá la herramienta.

5. Privacidad y seguridad de los datos

  • Protección de datos : respete los estándares estrictos de privacidad de datos para proteger la información de la audiencia. Esto incluye el almacenamiento seguro de datos, el manejo y los mecanismos de consentimiento claros para la recopilación de datos. Amplíe las políticas de privacidad de datos de su organización para controlar el uso de la IA.
  • Uso ético de los datos : utilizar los datos de la audiencia de forma ética, garantizando que se recopilen, almacenen y utilicen de formas que respeten la privacidad y el consentimiento del usuario.

6. El servicio a la audiencia y el bien público

  • Diseño centrado en la audiencia : Desarrollar herramientas de IA que prioricen las necesidades y preocupaciones de la audiencia, garantizando que la IA sirva para mejorar el bien público y la integridad periodística. 
  • Participación de la comunidad : interactuar con las comunidades para comprender sus necesidades y perspectivas, e integrar sus comentarios en el desarrollo de productos de IA.

7. Supervisión humana

  • Colaboración entre humanos e IA : garantizar que las herramientas de IA complementen, en lugar de reemplazar, el criterio y la creatividad humanos. Mantener un nivel significativo de supervisión humana en todos los procesos de IA.
  • Capacitación y educación : brindar capacitación y apoyo continuos a periodistas y personal para que puedan utilizar y supervisar de manera eficaz las herramientas de IA.

8. Difusión educativa

  • Programas de alfabetización en IA : implementar programas educativos para mejorar la alfabetización en IA entre periodistas y el público, fomentando una mejor comprensión del papel y el impacto de la IA en el periodismo.
  • Comunicación transparente : Mantener abiertos canales de comunicación con la audiencia sobre las prácticas de IA, fomentando una cultura de transparencia y confianza.

9. Sostenibilidad

  • Evaluación de impacto a largo plazo : evaluar los impactos a largo plazo de las herramientas de IA en el periodismo y la sociedad, garantizando que las prácticas de IA contribuyan a un periodismo sostenible y ético.
  • Mejora iterativa : mejorar continuamente las herramientas y prácticas de IA en función de los comentarios, las auditorías y los nuevos desarrollos en el campo de la IA y la ética.

Próximos pasos en el trabajo de ética de la IA de Poynter

La primera Cumbre Poynter sobre IA, ética y periodismo y sus dos días de debates y hackathon dieron como resultado:

  • Una actualización del kit de inicio de pautas editoriales de inteligencia artificial de Poynter para salas de redacción (ver apéndice);
  • Principios de desarrollo ético de productos para tecnólogos y gerentes de producto en cualquier sala de redacción;
  • Ideas para seis productos de IA centrados en la ética y la audiencia;
  • Nuevos datos sobre los sentimientos de la audiencia hacia la IA;
  • Recomendaciones para programas de alfabetización en IA, divulgaciones específicas sobre IA y conclusiones que ayudarán a las organizaciones participantes (y a cualquiera que utilice este informe) a experimentar de forma ética y eficaz con IA en sus salas de redacción.

Poynter se propuso lograr lo anterior y comenzar a realizar debates periódicos sobre ética en IA que puedan perfeccionar las pautas editoriales a medida que avance la tecnología. Nuestro objetivo es convocar otra cumbre el próximo año que reunirá a más organizaciones estadounidenses y salas de redacción internacionales. La agenda incluirá más debates y paneles abiertos, comentarios de los participantes y dará lugar a actualizaciones de la guía de ética en IA de Poynter, nuevas investigaciones sobre la audiencia y otra oportunidad para que las salas de redacción vuelvan a centrar la experimentación con IA en las necesidades de la audiencia.

Fuente: Poynter, traducido por Adepa.