La investigación de NewsGuard muestra que las mejoras tecnológicas permitirán en breve que la IA fomente “noticias falsas” a una escala sin precedentes, en volúmenes increíbles y apoderándose de los ingresos publicitarios de los medios de noticias mientras plagia su contenido.
Chine Labbe y Virginia Padovese, vicepresidentas de NewsGuard responsables conjuntas de Europa, Canadá, Australia y Nueva Zelanda, fueron invitadas recientemente a hablar en una de las reuniones periódicas sobre política de medios organizadas por WAN-IFRA para los directores de las asociaciones miembro. Explicaron los hallazgos de la investigación que muestran cómo la Inteligencia Artificial probablemente se utilizará para exacerbar la desinformación de tres maneras distintas y extremadamente preocupantes.
La imagen que ilustra este artículo es de AI MEDIAWATCH, una lista de lectura pública sobre las tendencias de la IA en la publicación de noticias seleccionada por WAN-IFRA.
1 – “Noticias falsas” a una escala sin precedentes, por muy poco costo.
Las continuas mejoras que se están llevando a cabo en las herramientas de inteligencia artificial están destinadas a destruir las barreras de entrada en la industria de la desinformación. La difusión de vídeos, audios e imágenes generados por IA se ha acelerado enormemente en los últimos meses, junto con la guerra en la franja de Gaza. De hecho, el conflicto ha sido denominado “la primera guerra de IA”, haciéndose eco de cómo se llamó a la guerra de Vietnam “la primera guerra televisada”.
Las herramientas no son nuevas, pero se volvieron significativamente más avanzadas y generalizadas desde el 7 de octubre. Hace apenas tres meses, las falsificaciones profundas presentaban errores obvios, particularmente en la representación de extremidades, manos y pies. Ahora son mucho más precisos y se propagan aún más rápido. En particular, la tecnología ha experimentado verdaderos avances en lo que respecta al lanzamiento de herramientas de sincronización de labios y voz en off, lo que permite utilizar medios disponibles públicamente para clonar voces sin permiso.
La aceleración de los deepfakes también afectó al conflicto entre Rusia y Ucrania: los analistas de NewsGuard encontraron en un lapso de diez días en noviembre cinco vídeos extremadamente realistas en los que el presidente Zelensky ordenaba falsamente a los soldados que llevaran las armas a sus comandantes, bajo logotipos de medios de comunicación ucranianos legítimos. Todo esto resulta especialmente preocupante en un año como 2024, donde más de la mitad de la población mundial participará en elecciones nacionales.
Mientras tanto, las destacadas herramientas de inteligencia artificial siguen siendo preocupantemente propensas a difundir desinformación. En agosto, NewsGuard publicó los resultados de su auditoría repetida de «equipo rojo» de GPT-4 y Google Bard, donde los modelos recibieron 100 narrativas falsas bien conocidas y desacreditadas. ChatGPT-4 respondió con texto que incorporaba esas conocidas teorías de conspiración el 98% de las veces, mientras que Bard lo hizo ligeramente mejor con el 80%.
2- Proliferación de granjas de contenidos de nueva generación
Ha surgido una nueva generación de granjas de contenidos en forma de sitios web de noticias impulsados por IA. Dependen de poca o ninguna supervisión humana y producen grandes cantidades de contenido de baja calidad con el único propósito de obtener una clasificación alta en los motores de búsqueda, producir grandes cantidades de artículos clickbait y optimizar los ingresos publicitarios.
En mayo de 2023, NewsGuard lanzó su centro de seguimiento de inteligencia artificial, con el doble objetivo de identificar granjas de contenido y rastrear narrativas falsas producidas por herramientas de inteligencia artificial. Un sitio web se considera un sitio de noticias generado por IA (UAINS) no confiable cuando cumple estas cuatro condiciones:
Hay pruebas claras de que una parte sustancial del contenido del sitio es producida por IA.
Hay pruebas sólidas de que el contenido se publica sin una supervisión humana significativa. Por ejemplo, numerosos artículos pueden contener mensajes de error u otro lenguaje específico de las respuestas del chatbot, lo que indica que el contenido fue producido por herramientas de inteligencia artificial sin una edición adecuada.
Intento evidente de engañar al lector haciéndole creer que el sitio web de noticias es legítimo y está producido por escritores o periodistas humanos (diseño, nombre genérico o benigno, dirección, temas)
El sitio no revela claramente que su contenido sea producido por AI.
En el momento del lanzamiento del rastreador, en mayo de 2023, NewsGuard había identificado cuarenta y nueve granjas de contenido que cumplían con estos criterios. Desde entonces, ese número ha crecido exponencialmente a 731 en quince idiomas diferentes en febrero de 2024.
Casi la mitad de estos sitios web (328 al 5 de enero de 2023) incluyen publicidad programática de marcas conocidas y probablemente ajenas.
3- Robots de plagio
En un estudio de agosto de 2023, NewsGuard encontró treinta y siete sitios que utilizaban inteligencia artificial para reempaquetar artículos de fuentes de noticias convencionales sin dar crédito, incluidos CNN, The New York Times y Reuters. Estas granjas de contenido presentaban anuncios programáticos de marcas de primera línea, que, sin saberlo, están ayudando a financiar la práctica de utilizar IA para reproducir engañosamente contenido de fuentes de noticias establecidas. Las implicaciones de competencia desleal se explican por sí solas: estos sitios web seleccionan contenido, lo mezclan hasta dejarlo irreconocible y publican cientos de artículos al día prácticamente en tiempo real y sin costo alguno.
Los analistas pudieron identificar como plagio sólo los sitios web que publicaban contenido que incluía mensajes de error reveladores como «como modelo de lenguaje de IA, no puedo reescribir este artículo» o «No puedo determinar el contenido que debe reescribirse». Por supuesto, el problema es fácil de solucionar y se puede esperar que pronto los malos actores encuentren una manera de eliminar automáticamente la cadena mientras siguen robando contenido. Los detectores de plagio no lograron detectar el texto copiado por IA el 79% de las veces. Jen Dakin, portavoz de Grammarly, dijo a NewsGuard en un correo electrónico que la herramienta de plagio de la compañía puede «detectar contenido que fue extraído palabra por palabra de canales en línea» pero «[no puede] identificar texto generado por IA».