Los profesores Alexis Apablaza-Campos y Lluís Codina, del Departamento de Comunicación de la Universitat Pompeu Fabra, han llevado a cabo una investigación exhaustiva sobre el uso de la inteligencia artificial generativa en el periodismo, que revela oportunidades significativas para la creación de contenido y la eficiencia operativa, pero también plantea serios desafíos éticos y prácticos.
La investigación aborda las experiencias periodísticas y sus estrategias de visibilidad en tres niveles principales: investigaciones destacadas sobre la temática, experiencias docentes en áreas de Periodismo y Comunicación Social en el uso de IA, y medios digitales que utilizan estos recursos para interactuar con sus lectores.
Además, el informe incluye un estudio de caso de publicaciones realizadas por CNET, redactadas inicialmente sin intervención humana.
A continuación, se detallan algunas de las principales conclusiones del informe ChatGPT en medios digitales: experiencias periodísticas con inteligencia artificial generativa, basado en experiencias periodísticas concretas y el análisis de la implementación de ChatGPT en medios digitales.
- Riesgos de inexactitudes y falsedades:
- La producción de contenidos generados por IA, como ChatGPT, puede contener inexactitudes y falsedades, contaminando internet con información errónea. Este riesgo es particularmente alto cuando los actores buscan visibilidad y posicionamiento en motores de búsqueda sin preocuparse por la calidad del contenido.
- Implicaciones para los medios de comunicación:
- Los medios de comunicación deben evitar el uso de IA generativa como autores independientes. En su lugar, la IA debe ser una herramienta de apoyo, con contenido verificado por editores humanos antes de su publicación.
- La integración de IA puede aliviar tareas repetitivas como la recolección y síntesis de datos, permitiendo que los periodistas se enfoquen en trabajos más creativos y críticos.
- Potencial de la IA en redacciones:
- Las IA generativas pueden asistir en el análisis y compilación de datos, planificación de contenidos y optimización de modelos de negocio periodísticos.
- Es crucial que las redacciones mantengan la supervisión de calidad y transparencia en el uso de IA, informando a los lectores sobre el método de redacción de las noticias.
- Casos de estudio y ejemplos concretos:
- La experiencia de CNET con la publicación de artículos generados por IA reveló problemas significativos como errores y falta de atribución adecuada, lo que llevó a la necesidad de correcciones manuales y eliminación de artículos.
- Este caso demuestra que los sistemas de IA no pueden ser considerados autores finales sin una revisión y supervisión exhaustiva.
- Aportes en Big Data y conocimiento de audiencias:
- La IA puede contribuir significativamente al análisis de big data, ayudando a los medios a entender mejor los hábitos de sus audiencias y a predecir comportamientos como suscripciones y cancelaciones.
- Las métricas basadas en IA pueden mejorar las estrategias de adquisición y retención de suscriptores, permitiendo ofertas personalizadas y ajustes en las políticas de contenido.
- Desafíos éticos y necesidades de formación:
- Existen preocupaciones éticas relacionadas con la transparencia, la rendición de cuentas y la posible erosión de la confianza pública en los medios que utilizan IA.
- Es esencial formar a los estudiantes y profesionales en el uso ético y crítico de la IA, promoviendo una actitud consciente para evitar el plagio y la desinformación.
- Futuras líneas de investigación:
- Se sugiere explorar cómo los sistemas de IA generativa pueden apoyar a las redacciones en temas específicos y nuevos formatos de noticias.
- También se recomienda profundizar en el uso de IA para predecir comportamientos de suscriptores, optimizando estrategias de retención y adquisición de lectores.