La inteligencia artificial se ha convertido en el principal motor de búsqueda, pero expertos advierten que también potencia la difusión de desinformación al mezclar contenidos verificados con fake news.
La inteligencia artificial se ha convertido en el principal motor de búsqueda, pero expertos advierten que también potencia la difusión de desinformación al mezclar contenidos verificados con fake news.
La inteligencia artificial ha irrumpido como el mayor motor de búsqueda, aunque su uso presenta varios riesgos. El principal es la circulación de desinformación mediante fragmentos de fake news elaboradas de manera intencional para generar confusión.
Así coincidieron el presidente de la Asociación de Entidades Periodísticas de Argentina (Adepa) y directivo del Grupo Clarín, Martín Etchevers; la fundadora de Agencia Lupa, especializada en la detección de noticias falsas, Cristina Tardáguila; y el director de Chequeado, Franco Piccato.
Los especialistas señalaron que la IA utiliza motores de búsqueda que obtienen información de los medios de comunicación, pero la presentan mezclando fuentes serias con fuentes gubernamentales o sitios que difunden fake news. Además, remarcaron que estas herramientas no retribuyen a los medios por utilizar sus contenidos.
Los tres expertos participaron en el panel La tormenta perfecta: desinformación, plataformas e IA, realizado en el coloquio internacional Periodismo, libertad y democracia, organizado por la Alianza de Medios MX y La Silla Rota, sitio periodístico que este mes cumple 15 años.
La tormenta perfecta

Etchevers explicó que “la tormenta perfecta” comenzó en los años 2000 con la expansión de los buscadores y, más tarde, de las redes sociales, lo que impactó de lleno en los modelos de financiamiento de los medios.
Hasta entonces, el usuario pagaba por información de calidad mediante suscripciones. Con la llegada de internet y luego de las redes sociales, la principal fuente de ingresos pasó a ser la publicidad digital, que mediante la personalización permite a los anunciantes conocer características y emociones de los usuarios para ofrecer mensajes segmentados, reduciendo así los costos.
“Más del 50% de la publicidad es digital y más del 80% está en manos de dos empresas”, señaló. También advirtió que la publicidad programática tiene valores muy bajos: “Pasamos de cobrar dólares analógicos a centavos digitales”.
En 2018, los medios comenzaron a negociar con plataformas digitales para que pagaran por los contenidos periodísticos. Sin embargo, mientras esas conversaciones avanzaban, la irrupción reciente de la inteligencia artificial volvió más complejo el escenario. Según Etchevers, las compañías de IA sostienen que no deben compensar a los medios porque ofrecen información “fragmentada”, y porque sus motores rastrean toda la web sin distinguir entre sitios oficiales, medios profesionales o páginas que producen fake news, lo que genera respuestas sesgadas e incompletas.
Además, señaló que estas búsquedas se realizan sin consentimiento y sin transparencia sobre cómo se entrenan los modelos o qué fuentes privilegian.
Bienvenidos a la era de la duda

Por su parte, el director de Chequeado, Franco Piccato, advirtió que los chatbots reproducen un 35% de falsedades presentes en la red y registran un 45% de errores en evaluaciones internas. “El 50% de los contenidos nuevos se genera sin supervisión humana”, agregó.
“Bienvenidos a la era de la duda”, afirmó. Planteó que la IA no es solo una herramienta, sino un nuevo intermediario que define cómo las personas encuentran información, muchas veces sin contexto y mediante respuestas automáticas. Esto contribuye al aumento de la desconfianza en las noticias y las instituciones.
Según Piccato, la principal amenaza no son solo las fake news, sino la creciente politización y emocionalidad de la información, un fenómeno que puede afectar debates cruciales como el cambio climático o la efectividad de las vacunas.
La desinformación se dispara en las estafas
Cristina Tardáguila, fundadora de Agencia Lupa, afirmó que en Brasil la desinformación se utiliza masivamente para estafas y delitos online, adoptando tácticas manipulativas propias de la política.
“Hay personas que pierden dinero porque creen incluso que se puede curar el cáncer”, señaló. Según sus datos, mientras el uso de IA está presente en el 7% de los mensajes, en las estafas por WhatsApp alcanza el 35%.
También recordó que la desinformación puede circular libremente hasta 14 días antes de ser desmentida. “Pensar que se puede combatir la desinformación sin fact-checking es falso. Es como un hospital sin médicos”, concluyó.
Fuente: La Silla Rota
