Un grupo bipartidista de senadores del Congreso de EEUU presentó la semana pasada una propuesta de ley sobre la Inteligencia Artificial (IA) que establecería un certificado de origen como factor común en la lucha contra la desinformación, y a los esfuerzos para proteger a las obras de medios y artistas contra uso no-autorizado para entrenar a la IA.
La senadora María Cantwell, presidenta de la Comisión de Comercio, dijo que la legislación “proporcionará la tan necesaria transparencia” sobre el origen del contenido generado por la IA” y “devolverá a los creadores, incluyendo a periodistas locales, artistas y músicos, control sobre su contenido”.
El eje del control de uso y la transparencia seria la Información de Procedencia del Contenido, (CPI) por sus siglas en inglés, que en forma de metadatos o marcas de agua daría al público detalles esenciales sobre el origen del contenido, según el proyecto de ley.
Un amplio conjunto de organizaciones de artistas y de medios de comunicación aplaudieron a la propuesta legislativa, tanto por la acción contra los usos espurios de la IA generativa para desinformar, como también por la acción para proteger a creadores contra el uso comercial, indiscriminado de sus obras por parte de la IA generativa.
Curtis LeGeyt, presidente de la Asociación Nacional de Cadenas de Radio y Televisión, dijo que la legislación ayudaría a proteger a la sociedad en general contra los “deepfakes” generados por la IA, que “suponen una amenaza significativa para la integridad del periodismo de confianza producido por las emisoras”, especialmente durante un año electora en EEUU como el actual.
“También aplaudimos la prohibición del uso de nuestro contenido de noticias para entrenar sistemas generativos de IA o para crear contenido competitivo sin el consentimiento expreso y la compensación al creador de noticias”, agrego LeGeyt.
La Ley de Protección del Origen del Contenido y la Integridad contra los Medios Editados y Deepfaked de 2024 (COPIED-ACT) fue introducido por Cantwell, demócrata; Marsha Blackburn, republicana y miembro de la Comisión de Comercio y Martin Heinrich, demócrata y miembro de grupo de trabajo del senado sobre IA.
La ley concretamente propone lo siguiente:
- Que el Instituto Nacional de Estándares y Tecnología defina directrices y estándares sobre como establecer la CPI en base a criterios de consensos, y cuya adopción puntual sería voluntaria. La CPI debe dar transparencia sobre el origen del contenido, especialmente si es generado o manipulado por IA.
- Prohibir que IA utilice sin autorización a los contenidos con CPI para entrenar a sus modelos y producir otros contenidos, dándole a los creadores el derecho a definir los términos de un eventual uso por la IA generativa.
- Permitir que los dueños de contenido marcados con CPI entablen acciones legales contra servicios de IA que utilicen sus obras para generar nuevos contenidos sin consentimiento previo. También autoriza a la Comisión Federal de Comercio (FTC por sus siglas en inglés) y a fiscales generales de los distintos estados a asegurar el cumplimiento con las previsiones de la ley.
- Que sea ilegal remover o manipular CPI, la información de origen.
Entre las entidades que dieron su apoyo a la legislación son: Screen Actors Guild – American Federation of Television and Radio Artists; News Media Alliance; National Newspaper Association; Rebuild Local News; America´s Newspapers; Recording Industry Association of America; National Music Publishers ‘Association, entre otros.
La legislación fue el resultado, entre otras cosas, de una audiencia de la Comisión de Comercio en septiembre del año pasado sobre IA y transparencia, en la cual miembros de la comisión y testigos citaron el estándar de procedencia C2PA de la Iniciativa de Autenticidad de Contenido (CAI) como ejemplo del CPI necesario para dar en forma segura información sobre el origen de cualquier contenido.
La iniciativa es un esfuerzo colaborativo y multisectorial que tiene el apoyo de más de 3,000 socios en el mundo. Incluye a principales empresas de IA, medios noticiosos, empresas de tecnología, plataformas, redes sociales, empresas de relaciones públicas/marketing/comunicación, representantes de artistas, proveedores de los medios de comunicación, organizaciones de la sociedad civil, etc.
El estándar C2PA, de fuente abierta, ya existe y permite adjuntar metadatos a los archivos digitales, estableciendo cómo, cuándo, dónde y por quién fue generado un video, audio o fotografía, y en el caso de archivos tradicionales, permite mostrar si el contenido fue manipulado o adulterado. También contempla incluir enlaces a la CPI dentro de marcas de agua invisibles y que los autores de información puedan confirmar ser dueños de sus materiales mediante marcas de cada empresa o autor, enlazadas criptográficamente a autoridades de certificación.
El estándar también permite dejar un mensaje específico, dirigido a los sistemas de IA, instruyéndolos a no entrenar sobre el contenido.
El uso de los contenidos noticiosos de empresas periodísticas por parte la IA generativa, para crear sus propios informes noticiosos, ha sido criticado por parte de los medios de comunicación como una competición desleal, que es un nuevo factor en la crisis de financiamiento de los medios noticiosos.
Un estudio del News/Media Alliance de Estados Unidos de octubre de 2023 mostró que los sistemas de IA utilizan en forma prioritaria a los contenidos noticiosos de empresas tradicionales como materia prima para sus producciones. Esa utilización de los contenidos tradicionales supera por un factor de cinco a 100 a la utilización de otros contenidos genéricos disponibles para el uso por la IA, dijo el estudio.
El estudio señalo que muchos desarrolladores de IA generativa “han optado por copiar sin permiso los contenidos de los editores y utilizarlos para el entrenamiento de modelos y en tiempo real para crear productos competidores”.
“Mientras que los editores realizan las inversiones y asumen los riesgos, los desarrolladores de IA generativa recogen los frutos en términos de usuarios, datos, creación de marca y dólares de publicidad”, algo que “presagia un perjuicio para el interés público” hasta ahora atendido por los medios tradicionales, agregó.
De hecho, en ese sentido, la empresa Newsguard, que hace monitoreo de desinformación y ofrece un ranking de confiabilidad de medios noticiosos, informó hace poco que ya son 976 sitios en 16 idiomas que producen contenidos poco confiables mediante bots de la IA, sin nada o casi nada de involucramiento de periodistas o personas.
Los sitios, con nombres como iBusiness Day, Ireland Top News, Daily Time Update, producen centenares de informaciones sobre una amplia variedad de temas. Muchas de las informaciones son totalmente falsas, fabricadas o repeticiones de noticias viejas como si fueran actuales. Newsguard dice que el modelo de negocios de muchos de estos sitios es la publicidad programática.
Por John Reichertz