Los sistemas de inteligencia artificial basados en modelos de lenguaje se están consolidando como una de las principales vías de acceso a la información, con capacidad para influir de manera progresiva en la forma en que las personas interpretan la actualidad, incluso cuando los contenidos generados son factual y técnicamente correctos, según un análisis académico reciente sobre el papel de estos sistemas en la comunicación pública.
El uso creciente de asistentes conversacionales y herramientas de IA integradas en buscadores, redes sociales y medios digitales está desplazando a los mecanismos tradicionales de intermediación informativa, ya que estos modelos no solo resumen o reproducen noticias, sino que seleccionan, priorizan y presentan los datos con determinados énfasis que pueden moldear la percepción del público a lo largo del tiempo.
Tal como recoge The Conversation, una investigación firmada por Adrian Kuenzler, académico de la University of Denver y la University of Hong Kong, identifica la existencia de un fenómeno denominado “sesgo de comunicación”, por el cual los grandes modelos de lenguaje tienden a destacar ciertos puntos de vista y a minimizar otros sin que el usuario sea necesariamente consciente de ello.
El estudio señala que este comportamiento no equivale a la difusión de desinformación, sino a una forma más sutil de influencia basada en el encuadre del contenido, el tono empleado y las fuentes priorizadas en las respuestas generadas por los sistemas de IA, factores que pueden condicionar la formación de opiniones aun cuando los datos presentados sean veraces.
Investigaciones empíricas recientes han demostrado que los modelos de lenguaje pueden variar su enfoque en función del contexto o del perfil del usuario que formula la consulta, inclinándose de manera leve pero constante hacia determinadas posiciones políticas o sociales, especialmente en escenarios como campañas electorales o debates regulatorios, sin incurrir en errores factuales.
Este comportamiento está relacionado con lo que los investigadores describen como “dirigibilidad basada en la persona”, un ajuste del discurso de la IA a las expectativas percibidas del usuario, que puede llevar a respuestas distintas sobre un mismo asunto según la identidad o intereses que el propio usuario declare al interactuar con el sistema.
El análisis subraya que este sesgo no se origina únicamente en los datos de entrenamiento, sino también en las decisiones de diseño, los incentivos económicos y la concentración del mercado de modelos de lenguaje, donde un número reducido de desarrolladores define los parámetros de sistemas utilizados a escala global.
Aunque iniciativas regulatorias como la Ley de Inteligencia Artificial y la Ley de Servicios Digitales de la Unión Europea buscan introducir mayores exigencias de transparencia y responsabilidad, el estudio advierte de que estas normativas no abordan de forma directa los efectos del sesgo comunicativo, al centrarse principalmente en la detección de contenidos dañinos o en auditorías previas al despliegue.
Los investigadores concluyen que la mitigación de este tipo de sesgos requiere medidas adicionales orientadas a reforzar la competencia, la diversidad de modelos, la rendición de cuentas y la participación de los usuarios en los procesos de diseño y evaluación, en un contexto en el que la inteligencia artificial se perfila como un actor central en la construcción del espacio informativo.
Fuente: Laboratorio de Periodismo



