Investigaciones realizadas por ambos medios ponen de relieve plagios y raspado de contenido que estaba protegido mediante el Protocolo de Exclusión de Robots.

Perplexity AI, uno de los principales chatbots conversacionales, impulsado por inteligencia artificial, al igual que ChatGPT, está afrontando serias acusaciones de plagio y uso no autorizado de contenido tras sendas investigaciones realizadas por Wired y Forbes.

Las investigaciones han puesto de relieve prácticas cuestionables desde un punto de vista ético y legal, según ambas revistas, especialmente en relación con el Protocolo de Exclusión de Robots y la atribución precisa de fuentes.

La controversia comenzó cuando Forbes acusó a Perplexity AI de plagiar su contenido. La revista señaló que Perplexity había reproducido sustancialmente un reportaje exclusivo sobre drones impulsados por IA y financiados por el ex CEO de Google, Eric Schmidt, sin otorgar la debida atribución.

Esta acusación llevó a una investigación más profunda por parte de Wired, que descubrió que Perplexity estaba raspando contenido subrepticiamente de sitios web Logo de Perplexity. Imagen de Maurice Norbert (Depositphotos) que explícitamente prohibían tales acciones mediante el Protocolo de Exclusión de Robots.

El análisis de Wired, apoyado por los hallazgos del desarrollador Robb Knight, reveló que Perplexity utilizaba direcciones IP no publicadas para raspar contenido, lo cual es contrario a sus declaraciones públicas de respetar el Protocolo de Exclusión de Robots. Wired observó una máquina vinculada a Perplexity, específicamente una en un servidor de Amazon, accediendo y raspando áreas de sitios web de Condé Nast, la empresa propietaria de Wired, en al menos 822 ocasiones durante los últimos tres meses.

Aravind Srinivas, CEO de Perplexity, respondió a las acusaciones negando que la empresa ignorara el Protocolo de Exclusión de Robots. En una entrevista con Fast Company, Srinivas afirmó que las prácticas de raspado identificadas por Wired y Knight eran realizadas por un proveedor de servicios de terceros y no directamente por Perplexity. No obstante, se negó a revelar el nombre del proveedor debido a un acuerdo de confidencialidad.

Srinivas también subrayó que el Protocolo de Exclusión de Robots, propuesto en 1994, no constituye un marco legal obligatorio y sugirió que la emergencia de la IA requiere una nueva relación de trabajo entre los creadores de contenido y plataformas como Perplexity.

Las investigaciones de Wired también revelaron que el chatbot de Perplexity a veces generaba respuestas inexactas o completamente inventadas. En un caso, el chatbot afirmó falsamente que un oficial de policía de California había cometido un delito, lo que llevó a la intervención de la policía para corregir el registro. Los hallazgos han aumentado las preocupaciones sobre la fiabilidad del servicio de Perplexity y sus prácticas de recopilación de datos.

Con respecto a las alucinaciones, Srinivas reconoció que el chatbot de Perplexity puede producir errores y “alucinaciones” en sus respuestas, pero insistió en que la empresa está trabajando continuamente para mejorar la precisión y la experiencia del usuario.

En mitad de la polémica, Forbes ha enviado una carta a Perplexity exigiendo la eliminación de artículos engañosos y el reembolso de los ingresos publicitarios obtenidos mediante la presunta infracción de derechos de autor.

A raíz de las denuncias, Perplexity ha comenzado a trabajar en acuerdos de reparto de ingresos con editores seleccionados para asegurar que los creadores de contenido sean compensados adecuadamente. Aunque no se han revelado los nombres de los editores involucrados, Srinivas indicó que la empresa está comprometida con la creación de una relación más equitativa con los proveedores de contenido.

Fuente: Laboratorio de Periodismo