Desde anuncios políticos hasta clips virales, los videos alterados con IA están erosionando la confianza en los medios, y las herramientas de detección actuales no están a la altura
La inferencia es clara: es difícil para cualquiera confiar en algo si las herramientas impulsadas por IA pueden crear videos, fotos y texto que parecen precisos a primera vista. Las plataformas de redes sociales como TikTok, Instagram y X empeoran las cosas al proporcionar salvaguardas limitadas para que los usuarios sepan qué es real y qué es falso.
Los deepfakes han recorrido un largo camino en los últimos años, desde intentos ridículos de mostrar a Will Smith comiendo espaguetis hasta videos convincentes de celebridades y políticos haciendo casi cualquier cosa.
Recientemente, el exgobernador de Nueva York, Andrew Cuomo, recurrió a herramientas impulsadas por inteligencia artificial (IA) para mostrarse convincentemente como conductor de metro y limpiador de ventanas en un anuncio para su campaña a la alcaldía. Un pequeño descargo de responsabilidad en la parte inferior del anuncio, requerido por la ley de Nueva York, señala que el anuncio “fue creado con la ayuda de inteligencia artificial”.
Él no es el primero. El actual alcalde de la ciudad de Nueva York, Eric Adams, recurrió a fotos y videos de IA antes de abandonar su campaña de reelección, y el presidente Donald Trump ha estado compartiendo videos alterados con IA de sus oponentes políticos durante meses, en particular poniendo un sombrero en la cabeza del portavoz de la minoría de la Cámara de Representantes, Hakeem Jeffries. Sin embargo, estos intentos campy de imitar el humor en línea se quedan cortos frente al realismo que las herramientas impulsadas por IA pueden producir.
Compañías como Google y OpenAI solían limitar o prohibir a los usuarios crear videos manipulados por IA con figuras públicas por razones obvias. Esas barreras se están desmantelando silenciosamente, y OpenAI enfrenta críticas generalizadas (y la amenaza de demandas) por permitir a los usuarios en su nueva aplicación de video social Sora usar celebridades, políticos y material con derechos de autor libremente.
¿El resultado? Un flujo interminable de «bazofia» de IA que presenta de todo, desde videos realistas de celebridades fallecidas hasta clips sorprendentemente realistas de personas reales como nazis, pasando por videos inquietantemente precisos pero completamente fabricados de eventos históricos. Bryan Walsh de Vox comparó acertadamente la mezcla de una plataforma de redes sociales estilo TikTok con contenido creado por IA con tomar heroína y mezclarla con heroína: una inundación de contenido basura que pudre el cerebro y es altamente adictiva y que predeciblemente se filtra en redes sociales más populares.
Sam Altman de OpenAI finalmente dio marcha atrás para crear más controles para los titulares de derechos de autor sobre su propiedad intelectual, lo que probablemente evitó a los abogados, pero no hizo nada para alterar los efectos secundarios de su máquina de desinformación.
Hay consecuencias reales. En 2024, un director de una escuela en un suburbio de Baltimore fue puesto en licencia administrativa después de que una grabación de audio que usaba insultos racistas y antisemitas se volviera viral en las redes sociales. El clip resultó ser una falsificación generada por IA creada por el director atlético de la escuela, quien estaba bajo investigación por presuntamente robar cientos de dólares de la escuela.
Afortunadamente, incidentes como este siguen siendo raros. Un estudio realizado por los profesores Soubhik Barari, Christopher Lucas y Kevin Munger y publicado a principios de este año en el Journal of Politics reveló que es poco probable que los videos manipulados por sí mismos engañen al público a una escala masiva.
Sin embargo, sí descubrieron que la existencia de tanto contenido potencialmente falso tiene el poder de continuar una erosión de la confianza en los medios que ha ocurrido durante las últimas dos décadas. Después de todo, si ya no podemos creer lo que ven nuestros ojos y oyen nuestros oídos, ¿en qué podemos confiar?
Como parte del estudio, los republicanos eran mucho más propensos a pensar que un video real del presidente Donald Trump equivocándose con el nombre del CEO de Apple, Tim Cook, era un deepfake. Lo mismo ocurrió con los demócratas a los que se les mostró un video real del expresidente Barack Obama pareciendo hacer un acuerdo postelectoral con el presidente ruso, Vladimir Putin.
«En resumen, nuestro trabajo sugiere que los deepfakes no son engañosos de manera única, pero su existencia puede desacreditar a los medios reales», dijo Lucas, profesor asociado de ciencia política en la Universidad de Washington en St. Louis, en un comunicado. «Nuestra investigación también muestra que la gente a menudo juzga noticias auténticas como falsas, especialmente cuando retrata a una figura política de su propio partido bajo una luz negativa».
La inferencia es clara: es difícil para cualquiera confiar en algo si las herramientas impulsadas por IA pueden crear videos, fotos y texto que parecen precisos a primera vista. Las plataformas de redes sociales como TikTok, Instagram y X empeoran las cosas al proporcionar salvaguardas limitadas para que los usuarios sepan qué es real y qué es falso.
Cómo averiguar si un video es real o un deepfake
No hay opciones geniales y confiables para los periodistas que intentan averiguar si un video es auténtico o un deepfake. Aunque numerosas herramientas gratuitas pueden detectar imágenes o fotos falsas, no existe una herramienta equivalente para videos que sea fácil de usar con una fecha límite. Las promocionadas en otros lugares eran defectuosas, funcionaban mal o devolvían continuamente mensajes de error.
Investigadores de Cornell se refirieron a esto como un nuevo «campo de batalla», con herramientas de detección de IA incapaces de seguir el ritmo de las compañías tecnológicas que generan una «bazofia» cada vez más convincente. Los expertos del Tow Center for Digital Journalism argumentan que las herramientas de detección no son confiables para detectar contenido creado o manipulado por IA e incluso pueden contribuir a una falsa sensación de seguridad al debilitar el «rigor periodístico».
Un consejo que funcionó como una verificación inicial de instinto proviene del experto en investigación en línea Henk van Ess, quien sugirió usar Hiya Deepfake Voice Detector. Es un plugin de Chrome que analiza el audio en tiempo real para determinar si lo que dice alguien es real o creado artificialmente y proporciona una puntuación de autenticidad entre uno y 100.
Obviamente, solo funciona si el clip tiene audio, pero el columnista probó Hiya con 10 videos reales y 10 deepfakes, y acertó los 20. Para un video falso, un anuncio de campaña alterado con IA que presentaba a la exvicepresidenta Kamala Harris, famoso por ser compartido por Elon Musk, Hiya le dio una puntuación de autenticidad de 1/100, señalando que «la voz muestreada es probablemente un deepfake«.
Sin embargo, «probablemente» no es certeza, por lo que sigue siendo responsabilidad de los periodistas estar atentos y ser escépticos sobre el contenido que aparece en las redes sociales. El mejor consejo es emplear el método «Sift» (Tamizar) iniciado por el experto en alfabetización digital Mike Caulfield, que significa stop (detenerse), investigate the source (investigar la fuente), find better coverage (encontrar mejor cobertura) y trace the claim (or video) to its original context (rastrear la afirmación o video a su contexto original).
Y para que conste, el video de Mora que le enviaron era real. El columnista no pudo verificar su autenticidad visualmente (aunque Hiya sí señaló que era «probablemente auténtico»). Sin embargo, pudo encontrar informes sobre el altercado de fuentes confiables en lo profundo de los archivos de Newspapers.com.
A veces, las viejas costumbres siguen siendo las mejores.
Fuente: E&P
Traducción realizada por ADEPA

