Las alarmas de los fact-checkers, o verificadores de datos, están encendidas desde hace varios meses por cuenta de los sistemas de generación de lenguaje natural. Y es que las capacidades de los programas de inteligencia artificial como Chat GPT representan un enorme desafío para este oficio. 

En un articulo de opinión publicado en el sitio web del Poynter Institute, Irene Larraz y Borja Lozano, dos especialistas que trabajan de cerca con la verificación de datos, reflexionan sobre el impacto que herramientas como Chat GPT podrían tener en la generación y propagación de información falsa. Irene Larraz es la coordinadora de los equipos de Fact-checking y Data en Newtral, un medio de comunicación español dedicado a la comprobación de hechos y producción de programas de televisión, y ha trabajado como fact-checker durante más de seis años, primero en Ecuador Chequea y luego en Verificado 2018 en México. Borja Lozano, por su parte, es ingeniero sénior de aprendizaje automático en Newtral, donde lidera el equipo de IA. Además, trabaja en diferentes proyectos europeos como Disinftrust, en el que investiga la detección de narrativas, polarización y lenguaje tóxico en redes sociales vinculado a la desinformación.

Larraz y Lozano empiezan el texto ilustrando el enorme potencial de Chat GPT relatando una de las primeras pruebas que hicieron los fact-checkers con el robot. Hace unos meses, se le pidió que escribiera un artículo defendiendo el uso de cloro para curar el Covid-19, y la máquina logró generar una elaborada respuesta llena de argumentos, a pesar de que es ampliamente conocido que no hay evidencia sobre su eficacia. 

Esta prueba dejó en evidencia algo que OpenAI, la compañía dueña de Chat GPT, ha advertido: una de las mayores limitaciones del modelo son sus “alucinaciones” refiriéndose al proceso por el cual rellena los vacíos de conocimiento con información inventada. En palabras de Preslav Nakov, jefe del departamento de procesamiento del lenguaje natural de la Universidad Mohamed bin Zayed de Inteligencia Artificial de Abu Dhabi, estos modelos de inteligencia artificial “no saben cuándo no saben”. Esto, a pesar de que a estas alturas las herramientas más sofisticadas han eliminado errores graves como su sugerencia de curar el Covid-19 con cloro. 

Irene Larraz y Borja Lozano cuentan que hoy en día la lista de preocupaciones que tienen los chequeadores de datos con respeto a la IA es larga, pero en su caso hay tres puntos que les interesan especialmente: la confianza de la gente en estas herramientas, el potencial que tienen para desinformar o fomentar narrativas falsas y, a la inversa, cómo pueden ayudar a mejorar la comprobación automatizada de hechos.

Los especialistas explican por qué la confianza ciega de los usuarios en estos modelos es un problema. “La forma en que ChatGPT genera texto sugiere que es como una gran base de datos, cuando en realidad es un sistema lingüístico cuyas capacidades se basan en predecir con mucha precisión la siguiente palabra de una frase para componer textos con sentido. De ahí que el contenido que genera no siempre sea veraz, más aún si el sistema se ha entrenado con toda la información almacenada en internet, donde abundan los ejemplos de desinformación”, advierten.

Otro elemento que traen a colación es que la máquina no entiende sentimientos como el odio o la polarización, pero es capaz de reconocer las palabras que suelen pronunciarse cuando se quieren transmitir estos sentimientos. “Así, puede escribir un mensaje que provoque indignación o miedo, sentimientos que están en la raíz de por qué se comparte la desinformación. El modelo también tiende a reforzar las creencias existentes de los usuarios, independientemente de su veracidad”, explican.

Para Larraz y Lozano estos elementos permiten concluir que el potencial de desinformación es enorme, no solo en la generación de “noticias falsas”, sino en la capacidad de perfeccionarlas. Especialmente por la habilidad de sistemas como Chat GPT para adaptar el lenguaje a determinados contextos y localizar giros de frases, haciendo que el contenido sea más personalizado. Además, estas herramientas también tienen el poder de multiplicar las falsas narrativas con el mismo mensaje escrito de múltiples maneras, “lo que podría aumentar la cantidad de contenidos falsos y dificultar la medición de su viralidad”.

En su columna, los expertos afirman que los creadores de Chat GPT ya reconocen estos problemas. Tanto, que entre los riesgos del uso de su chatbot, incluyen la parcialidad, el exceso de confianza, la privacidad y la ciberseguridad. OpenAI ha activado filtros, que llama procesos de seguridad, para mitigar la creación de contenidos dañinos o engañosos y ha habilitado un clasificador que predice la probabilidad de que un texto haya sido generado por uno de sus sistemas. Sin embargo, advierten los expertos, algunos de estos pueden superarse con creatividad, como pedir a la herramienta que finja actuar como un determinado personaje de película. 

Por eso, sostienen que “la falta de transparencia en torno tanto al modelo como al funcionamiento de estos filtros impide conocer el razonamiento que los sustenta y cómo se entrenan. Esto puede afectar más a la desinformación local, donde no hay tanto contenido publicado y donde es más fácil para el algoritmo compartir información falsa sin que salten las alarmas”.

Ante este escenario, los chequeadores también se preguntan si es posible utilizar las ventajas de esta tecnología a su favor. Por ejemplo, ¿es posible que contribuyan a la automatización de la comprobación de hechos? Esto sería posible utilizando herramientas como ChatGPT para mejorar los modelos lingüísticos para la detección de afirmaciones, la comprobación de veracidad, la comprobación de afirmaciones con información que ya haya sido verificada y la validación de datos para comprobar los hechos.

“El potencial sería aún mayor si las respuestas del modelo pudieran incluir no sólo citas de fuentes fiables, como prevé OpenAI en 2021, sino también sus enlaces”, reconocen los especialistas. Esta posición de Larraz y Lozano va en línea con algo que Sam Altman, director de OpenAI, dijo en una entrevista con StrictlyVC: “El texto generado es algo a lo que todos tenemos que adaptarnos, y eso está bien”. 

Así, advirtiendo que están intentando acostumbrarse a esta nueva tecnología y reconocer sus potencialidades para facilitar su trabajo, Larraz y Lozano cierran su columna de opinión. No sin antes lanzar una última advertencia: “tendremos que seguir recordando a la gente que verifique la información, venga de donde venga, antes de compartirla”.

Fuente: Asociación colombiana de medio de información