Las herramientas de IA generativa tienen mucho poder para cambiar el negocio de los medios, desde la forma en que trabajamos, hasta los datos que recopilamos, las necesidades y expectativas de la audiencia. El área es compleja y cambia tan rápidamente que navegar por el paisaje requiere una hoja de ruta: políticas que describen cómo las empresas de medios utilizarán la IA .
La IA ha estado trabajando arduamente en las organizaciones de medios durante décadas. Sin embargo, como hemos explorado , la IA generativa tiene capacidades más amplias, puede generar un lenguaje más matizado y los modelos de código abierto lo hacen ampliamente accesible. Es capaz de crear contenido, imágenes, audio, música, código y podría ser una herramienta valiosa para la colaboración.
Dado que el espacio de la IA generativa está cambiando, DCN se comunicó con seis organizaciones de medios (Harvard Business Review, The Weather Company, Consumer Reports, The Washington Post, Skift y The Boston Globe) para explorar cómo están desarrollando políticas de IA y pautas internas para el uso de la IA y cómo se ven.
Las empresas de medios no pueden darse el lujo de esperar y ser reactivas en algún momento, cuando la IA ya ha alterado drásticamente el negocio de los medios, señaló Maureen Hoch, editora de HBR.org y directora general de contenido digital de Harvard Business Review.
“Este no es un momento de esperar y ver”, dijo Hoch. “Realmente debe pensar en cómo ayudar tanto a los editores como a los gerentes de producto a comprender el papel que juegan estas herramientas, dónde están las barreras. Y, en un sentido más amplio, comprenda cómo podrían afectar a su audiencia y su producto”.
Si su organización aún no ha comenzado este proceso, ahora es el momento de comenzar. Las empresas de medios deben desarrollar pautas, reglas, regulaciones, principios, valores e intenciones en torno al uso de la IA generativa. Sin embargo, al igual que la propia tecnología, estas políticas y directrices seguirán evolucionando. Piense en el proceso como la creación de un documento vivo que se puede actualizar según sea necesario.
Creación de un grupo de trabajo de IA
Ciertamente, los líderes editoriales no tienen que crear estas políticas solos. El desarrollo de una política de IA se realiza mejor con la inclusión de una variedad de partes interesadas con diferentes áreas de experiencia, desde antecedentes editoriales, técnicos, comerciales y legales. Este equipo, grupo de trabajo o grupo de trabajo debe aportar diversas perspectivas, que son necesarias para crear un conjunto sólido y completo de directrices o políticas.
En el Congreso FIPP a principios de este mes, la directora ejecutiva de Trusted Media Brands, Bonnie Kintzer, dijo que habían establecido un grupo de trabajo para aprender sobre IA e identificar cómo usar las herramientas de IA. Si bien entienden los riesgos, dijo, están adoptando la IA para hacer crecer su negocio .
Harvard Business Review también estableció un equipo multifuncional para crear una política de IA.
Hoch describe los desafíos y la importancia de incluir una amplia gama de roles en el proceso.
“Siempre existe el riesgo de tratar de idear una política con tantas partes interesadas diferentes; eso puede dificultarlo”, dijo Hoch. “Pero creo que todos entienden la urgencia y la importancia de tener una política en torno a estas herramientas”.
Ofreció consejos sobre la composición de un grupo de trabajo de IA. “Quiere que sus partes interesadas sean de seguridad de TI, legales y del lado comercial. Asegúrese de que todos tengan la oportunidad de opinar porque esto le servirá mejor a largo plazo”.
Robert Redmond , director de diseño de IBM, coordinador de ética de IA y vicepresidente de productos publicitarios de IA en IBM, está de acuerdo en que es importante incluir tantas perspectivas como sea posible.
“La creación de un grupo de trabajo es esencial para el desarrollo de políticas de IA justas y equilibradas”, dijo. “Un grupo no solo debe estar formado por partes interesadas ejecutivas, sino que debe considerar los roles y puestos de toda la empresa, así como también contratar a un grupo variado y diverso de personas. Un enfoque basado en la diversidad ayudará a contribuir a la formulación de políticas con equidad y sano debate desde múltiples puntos de vista”.
El enfoque del Washington Post hacia la IA es medido y estratégico. Han estado trabajando en IA durante años detrás de escena, pero acaban de anunciar dos equipos de IA en mayo. Están aprovechando sus recursos para estudiar la IA y crearon un grupo de trabajo de IA y un centro de IA para trazar un camino a seguir.
“A medida que navegamos por este espacio, contamos con la participación activa de toda nuestra cabecera en cada paso del camino. Nuestra editora ejecutiva, Sally Buzbee, ha dicho que vamos a ser audaces al adoptar la innovación, pero que lo haremos con el mayor apego a nuestros estándares”, explicó Justin Bank , editor gerente de The Washington Post.
El grupo de trabajo de IA está compuesto por líderes sénior de departamentos clave, incluidos noticias, productos, ingeniería, legal, finanzas y otros, para proporcionar una supervisión de alto nivel de la dirección de The Post. “Este grupo tiene la tarea de establecer las prioridades de la empresa y liderar la orientación estratégica en torno a la gobernanza de esta tecnología y las posibilidades de adopción”, dijo Bank.
El segundo grupo, The AI Hub, es un equipo operativo interdepartamental que encabezará las iniciativas de IA de experimentación, colaboración y prueba de concepto, dijo Bank. “AI Hub está dedicado a la exploración activa y la experimentación con adopciones. Este grupo también está estableciendo el espacio para que aquellos interesados en la IA contribuyan con ideas”.
Un documento vivo
Dada la complejidad y el panorama generativo de IA en rápida expansión, una política de IA debe ser flexible y continuar evolucionando y cambiando con el tiempo.
HBR describe su política como un documento vivo, que continúan actualizando, recopilando comentarios y comunicándose con toda la organización. Cada miembro del personal tiene acceso a la información de la política de AI.
El Boston Globe está en el proceso de elaborar lo que cree que es una política de IA completamente holística. Sin embargo, debe ser lo suficientemente flexible para crecer con la empresa, explicó Matthew Karolian , gerente general de Boston.com y asociaciones de plataforma, quien codirige la estrategia de IA con Michelle Miccone , vicepresidenta de innovación e iniciativas estratégicas.
“El objetivo final es tener una política que sea lo suficientemente completa como para abarcar todo, pero también legítimamente útil en el trabajo diario. Debe ser comprensible y procesable, claro para la gente internamente y luego quizás ofrecer políticas enfocadas externamente para que nuestros lectores y usuarios puedan entender cómo se utilizan estas tecnologías”, dijo.
El Boston Globe ha estado probando el uso de IA internamente, lo que informa la creación de su política. El programa de prueba permite que el personal opte por ser parte de la prueba y brinde comentarios diariamente.
“No vamos a lanzar estos productos a la naturaleza y a nuestros usuarios hasta que hayamos obtenido una comprensión muy clara de todos los diferentes elementos de estos proyectos basados en una audiencia interna”, dijo Karolian. “No queremos tomar ningún atajo. De esta manera, está impactando cómo se construyen los productos, está impactando cómo se posicionan los productos, está impactando la política”.
Como usuarios de IA desde hace mucho tiempo, The Weather Company (y la empresa matriz IBM) han implementado políticas, pautas y barandillas de IA, con un desarrollo continuo, durante la mayor parte de las cuatro décadas, explicó Rachel Chukura, directora de negocios de consumo y suscripciones en The Weather Company .
“Una política en un área en rápida evolución como la IA, que ha estado evolucionando a gran velocidad durante mucho tiempo, deberá estar bajo revisión constante, ya que debe mantenerse al día tanto con el avance de la tecnología como con el potencial futuro de la tecnología”, dijo Chukura.
Estructura y declaración de la política
Las políticas de IA de las empresas de medios generalmente tienen componentes similares: incluyen introducciones, declaraciones de políticas, secciones sobre alcance y aplicabilidad y responsabilidad. Si bien la estructura específica varía según la organización, las políticas de IA generalmente incorporan principios básicos que incluyen lo que las empresas creen a nivel de principios sobre la IA y otras secciones que cubren reglas o creencias sobre transparencia, precisión, responsabilidad y seguridad.
A continuación, describimos algunos de los elementos o componentes más comunes que hemos visto incluidos en las políticas de IA hasta el momento.
Transparencia
Uno de los elementos comunes en las políticas de IA hasta el momento es un principio o sección sobre transparencia. La transparencia es clave para las empresas de medios que utilizan IA, porque genera confianza entre las empresas y sus audiencias.
Lo que esto puede parecer es una divulgación responsable: compartir información de manera abierta y transparente sobre la implementación, las capacidades y las limitaciones de la IA.
“Creo que habrá muchas interpretaciones diferentes en toda la industria sobre lo que significa exactamente la divulgación responsable”, dijo Glenn Derene , director sénior de desarrollo de contenido de Consumer Reports. “Espero que estemos haciendo todo lo posible para no solo decir cuándo estamos usando IA generativa, sino literalmente ayudar al lector a comprender exactamente cómo la estamos usando. Queremos que los lectores siempre sepan quién y cómo se produjo algo”.
Las empresas de medios deben ser explícitas en la transparencia. Y deben colocar la divulgación en un lugar donde sea reconocible y comprensible, en lugar de dejarla vaga o como un elemento de diseño que se pasa por alto fácilmente.
«Es importante explicar cómo usaste la IA generativa para hacer algo y ponerlo donde el lector pueda verlo para que no estés ocultando nada, pero tampoco quieres que invierta el tema por el que la gente vino allí», dijo Derene. “Todo se reduce a no ser astuto. No queremos ser astutos con nuestros lectores”.
“Una de nuestras reglas es que cuando usamos contenido generado por IA, siempre debe divulgarse”, dijo Jason Clampet , director de productos de Skift. “Nunca debemos usar herramientas de IA para crear algo que hacemos pasar como no-IA”.
Por ejemplo, Skift publicó recientemente un artículo sobre Lionel Messi. Luego, usaron su chatbot Ask Skift para escribir una copia que describiera la cobertura anterior de Skift sobre marketing de influencers. Ask Skift es un chatbot de IA , que se creó sobre GPT-3.5 de OpenAI y se entrenó con 11 años de contenido de Skift. Responde preguntas relacionadas con la industria de viajes.
“Lo presentamos para que parezca que está en el propio chatbot”, dijo Clampet. “No hicimos que pareciera una noticia. Y para que quede claro para los usuarios, esto es de Ask Skift. El beneficio de eso es su contenido adicional, pero también le enseña a la gente cómo usar nuestras herramientas de IA y, de alguna manera, es un buen contenido y un buen marketing, y no oculta el hecho de que lo estamos usando para esto”.
Como industria, Karolian del Boston Globe cree que «es probable que eventualmente nos establezcamos en un conjunto de lenguaje de divulgación bastante universal y/o señales UX para que los usuarios puedan entender muy claramente de un vistazo cuando encuentran contenido generativo de IA».
Ser transparente permite a las audiencias tomar decisiones informadas sobre el contenido que consumen. Las políticas de IA de algunas empresas incluso han sugerido que proporcionarían al público herramientas para evaluar la confiabilidad del contenido.
La ética de la IA
The Weather Company tiene tres principios para trabajar con IA: que el propósito de la IA es aumentar la inteligencia humana, que los datos y las perspectivas pertenecen a su creador, y que la tecnología debe ser transparente y explicable.
En The Weather Company, tanto su estatuto de ética de IA como los enfoques de privacidad, ética y seguridad por diseño brindan pautas y principios mediante los cuales los equipos centran tácticas y estrategias, explicó Chukura.
“También tenemos procesos internos a lo largo de nuestro ciclo de vida de creación de productos que brindan control y apoyo de expertos dentro de las prácticas legales de marca/negocio, privacidad legal, seguridad y cumplimiento”, dijo. “También se ha convertido en parte de nuestro ADN, nuestra cultura, que aprovechamos la IA de manera ética, explicable, precisa y verificable porque nuestros consumidores y clientes dependen de los resultados”.
Precisión y responsabilidad
Las políticas de inteligencia artificial de las marcas de medios también se enfocan en los principios periodísticos básicos de precisión y responsabilidad.
Un ser humano siempre es responsable del trabajo, dijo Hoch. “Podría ser una herramienta, pero no creo que reemplace la experiencia en la materia que nosotros y nuestros autores aportamos”, dijo.
“Desde el punto de vista de los principios, todavía creemos que la experiencia en la materia de nuestros autores es la parte más importante de nuestro contenido. Eso no es algo que esperamos que sea generado por un chatbot o generado por una herramienta”, dijo Hoch. “Esa es una parte realmente importante de lo que nuestra audiencia confía en que hagamos y lo que confiamos en que hagan nuestros autores”.
“No estamos haciendo nada que no tenga un ser humano al tanto, porque hasta que podamos comenzar a garantizar un nivel de precisión que sea consistente con nuestra marca, no queremos sacar una herramienta que le dará a la gente mala información”, dijo Derene. “Eso es perjudicial para nosotros como institución”.
La IA comete errores: este es uno de los puntos de la política de IA de Skift, dijo Clampet.
“Rafat (Ali) y yo lo llamamos una especie de freelancer poco confiable, en el que solo querrás verificar dos veces el trabajo todo el tiempo”, explicó Clampet.
Para The Weather Company, es imperativo que los datos que influyen en el contenido y los datos que entregan sean confiables, explicó Chukura. Por supuesto, esto incluiría los datos que utiliza la IA generativa para producir cualquier información, así como lo que finalmente se presenta a la audiencia.
“Esto significa que las fuentes de los sistemas, específicamente los modelos de lenguaje grandes y los marcos generativos, deben capacitarse en conjuntos de datos autorizados, autorizados y confiables o a través de medios que sean auditables a escala”, dijo. “A medida que exploramos el panorama generativo y experimentamos con formas de aplicar los últimos modelos de IA, lo hacemos con precaución, asegurando que se mantenga nuestra misión clave para nuestros socios y consumidores”.
Por ejemplo, The Weather Company utiliza tecnologías basadas en IA para generar muestras de texto, pero están capacitados en marcos limitados que son auditables y utilizan contenido que se ha obtenido internamente o que, en algunos casos, puede proporcionarse a través de un socio autorizado, según Chukura.
Imágenes
Los formuladores de políticas gubernamentales no pueden moverse lo suficientemente rápido cuando se trata de imágenes generadas por IA. La Unión Europea está liderando el camino con la próxima Ley de IA , que regularía de manera integral la inteligencia artificial, aunque en los EE. UU., las imágenes producidas por los generadores de imágenes de IA no pueden tener derechos de autor .
A las empresas de medios les preocupan los derechos de autor de los resultados de los modelos de IA de texto a imagen, especialmente cuando los generadores de imágenes de IA, como Stable Diffusion, Dall-E y Midjourney, se entrenan con imágenes extraídas de la web. Getty Images incluso llegó a prohibir el contenido generado por IA el año pasado .
Las herramientas de imagen y video de IA no deben usarse para fotografía de noticias, de acuerdo con las pautas de The Globe and Mail sobre IA . Y, si una imagen es producida por Midjourney o DALL-E, “debe acreditarse como ‘imagen generada por IA’ o ‘ilustración generada por IA’.
No son los únicos que incluyen pautas sobre imágenes y videos en sus políticas de IA.
“HBR en general cree firmemente que respetamos el trabajo de los artistas y fotógrafos y el elemento humano de lo que aportan”, dijo Hoch. “Puede haber momentos en los que la historia requiera una imagen generada por IA, en cuyo caso se la revelaremos a la audiencia. Pero, como regla general, en este momento, nuestros equipos de diseño no utilizan herramientas para generar imágenes de IA”.
Antes de crear su política de IA, Clampet explicó que el personal de Skift tenía reglas generales sobre no usar IA para imágenes de noticias. Esa regla entró en su política de IA. Sin embargo, permitió que el personal pudiera usar la IA para ilustrar algo, como un informe sobre el sentimiento de la IA , y etiquetarlo como tal.
Datos, seguridad y legal
Tan emocionantes como son en términos de potencial, las herramientas de IA plantean muchas preguntas: ¿Existen restricciones en la recopilación de datos para estas empresas? Si las obras generadas por IA no están protegidas por derechos de autor , ¿quién es el propietario? ¿Cuánta participación de la IA generativa en la creación de materiales es demasiada antes de que se vuelva inelegible para la protección de los derechos de autor?
Puede ser difícil saber por dónde empezar con temas como la ley de derechos de autor aún en proceso de cambio, dijo Derene.
“Algunas de estas cosas son muy, muy difíciles de encontrar”, dijo. “Te hacen preguntas sobre quién es el autor de algo, cuando un escritor usa IA para hacer cosas como crear un aviso. En algunos aspectos, ¿cuándo es la IA una herramienta y cuándo es el autor?
La Oficina de derechos de autor de EE. UU. no registrará obras producidas por una máquina. Sin embargo, si la obra contiene suficiente autoría humana, lo hará. Los tribunales están resolviendo cómo se debe aplicar exactamente la ley. Y los casos presentados ante ellos incluyen preguntas sobre la infracción de la propiedad intelectual. Getty, por ejemplo, presentó una demanda contra Stability AI , acusándola de hacer un mal uso de más de 12 millones de fotos de Getty para entrenar su IA generativa.
“Si un usuario comercial es consciente de que los datos de capacitación pueden incluir trabajos sin licencia o que una IA puede generar trabajos derivados no autorizados que no están cubiertos por el uso justo, una empresa podría verse comprometida por una infracción deliberada”, escribieron Gil Appel, Juliana Neelbauer y David A. Schweidel para Harvard Business Review .
También existen riesgos de seguridad en torno al uso de la IA generativa, desde la privacidad de los datos hasta el malware y la habilitación de información errónea .
Las empresas de medios querrán trabajar con sus equipos legales y de TI para identificar riesgos y desarrollar políticas y otras acciones para mitigar esos riesgos. Por ejemplo, ChatGPT puede tener una política de privacidad. Sin embargo, recopila direcciones IP, configuraciones y tipos de navegador , y actividades de navegación de los usuarios.
The Weather Company de IBM adopta un enfoque global para la IA confiable, que se aplica en cascada a todos los aspectos de su negocio, explicó Chukura. “Consideramos estos aspectos fundamentales de la utilización de la IA en todo, desde nuestros productos de consumo, servicios de publicidad, productos de datos y enfoque hasta el contenido editorial”, dijo.
“Nuestro proceso incluye ética de IA y puntos de control de transparencia y privacidad en todas las funciones que desarrollamos. Consideramos las implicaciones de todas las soluciones de IA y nos aseguramos de que las aplicaciones y la producción de IA mantengan con éxito y seguridad nuestra misión principal de informar las decisiones y ayudar a mantener a los humanos seguros”.
Abundan las oportunidades
Otro componente a incluir en una política de IA es una sección sobre oportunidades. Es una gran tarea descubrir una política de IA. Centrarse simplemente en reglas, regulaciones o proscripciones puede establecer límites sin darse cuenta y no permite un marco equilibrado e integral que fomente la experimentación y la innovación.
“Es bueno incluir tanto las oportunidades como los riesgos”, explicó Hoch. “Creo que si solo te enfocas en no hagas esto, no hagas eso, genera mucho miedo y aprensión”.
“He recibido algunos comentarios sobre esto de nuestros equipos internos. El hecho de que ambos destacáramos los riesgos y las oportunidades les ayudó a tener un punto de vista de que esto es algo que seguirá cambiando. Continuará cambiando nuestro negocio, y tenemos que averiguar cómo va a funcionar mejor para nosotros”, dijo.
La IA puede ser una herramienta útil, enfatizó Clampet. Por ejemplo, puede sintetizar bloques de datos, sugerir titulares, mejorar los ejercicios de lluvia de ideas y acelerar la producción.
“Básicamente, lo consideramos un poco como un esteroide”, dijo. “Hay cosas realmente útiles que la IA puede hacer, y para que las organizaciones realmente las aprovechen en lugar de tener miedo de ellas. Pero también, al mismo tiempo, debemos reconocer las cosas que no puede hacer, como reemplazar los informes decentes, lo cual es difícil”.
Directrices para colaboradores
Si bien la creación de reglas y pautas para el personal es fundamental, también es importante considerar actualizar las pautas de los colaboradores con respecto al uso de la IA.
Harvard Business Review, por ejemplo, actualizó sus pautas para colaboradores externos . Era importante dejar claro que, aunque HBR entiende que sus colaboradores pueden querer usar herramientas de IA generativa, les gustaría saber si los autores las están usando y cómo. Hicieron hincapié en que los autores humanos son responsables de la precisión e integridad del trabajo, explicó Hoch.
El panorama
La industria está en la línea de salida de otro maratón. Al igual que la llegada de Internet o las redes sociales, la IA generativa es una herramienta poderosa que las empresas de medios deben comprender y utilizar de manera eficaz y responsable.
“Creo que quieres asegurarte de que donde sea que lo uses, agregue valor para el lector”, dijo Derene. “Siempre debe pensar en cómo agregar valor para sus lectores, para sus clientes y no quitarle valor a su marca y también usar la IA de una manera que aproveche el valor de su marca”, dijo.
Las grandes preguntas cobran gran importancia: ¿Qué sucede si aquellos con intenciones cuestionables, o incluso las mejores, distribuyen contenido generado por IA y no lo divulgan? ¿Qué tipo de efecto dominó tiene eso en el resto de la industria? ¿Qué sucede con la confianza de la audiencia? Al mismo tiempo, si el contenido falso o de baja calidad es aún más fácil de producir y proliferar, ¿cómo afectará esto al compromiso y los ingresos de los editores?
Claramente, la industria de los medios necesita pensar y actuar de manera responsable sobre la IA generativa y sus aplicaciones. Necesitamos asegurarnos de que la IA generativa sea una herramienta que se utilice para apoyar la misión de las organizaciones de medios, para aumentar y mejorar. Al mismo tiempo, la industria debe esforzarse por no distraerse o abrumarse por la rapidez con la que cambia la herramienta. Aquí es donde la política y las pautas ayudan.
«Es increíblemente importante que, como industria, podamos llegar a cierto nivel de estandarización en torno a la política y divulgación de IA, de modo que no sea algo en lo que un usuario tenga que pensar cada vez que visita un nuevo sitio», dijo Karolian.
Y, como siempre ocurre con los grandes cambios tecnológicos, existe una oportunidad en la puerta de salida para aquellos que toman la delantera.
Y, dado que las herramientas de IA generativa van a seguir cambiando y evolucionando, tener una política o reglas que rijan el uso de la IA brinda a los equipos de medios pautas y medidas de seguridad. Idealmente, esta será una política que sea a la vez clara y flexible, que fomente la transparencia, la rendición de cuentas y la precisión. Establecer pautas para su personal también protege contra los riesgos, los posibles sesgos y el mal uso de la IA generativa, al tiempo que demuestra un compromiso para adoptar la tecnología emergente de una manera responsable y que rinda cuentas a las audiencias.