Los usuarios que aportan contexto, ejemplos concretos y objetivos claros obtienen mejores respuestas de la inteligencia artificial que quienes se limitan a cambiar el tono o la forma de sus mensajes, según recogen distintos estudios y expertos citados por BBC Future, que sitúan la estructura de las instrucciones como el principal factor que condiciona el rendimiento de modelos como ChatGPT o Gemini.
La forma en que los usuarios estructuran sus instrucciones, aportan contexto y proporcionan ejemplos influye de manera directa en la calidad de las respuestas generadas por los sistemas de inteligencia artificial, según distintos estudios y el análisis de expertos, recogidos por BBC Future, que coinciden en señalar que los modelos actuales responden mejor a indicaciones claras y bien definidas que a cambios superficiales en el tono o en la elección de palabras.
Las investigaciones revisadas muestran que muchas de las estrategias populares asociadas al uso de chatbots, como ser especialmente educado, halagar al sistema o incluso recurrir a amenazas, no producen mejoras consistentes en la precisión de las respuestas. En algunos experimentos, incluso, los resultados han sido contradictorios. Sin embargo, sí se ha identificado un patrón común: cuando el usuario proporciona información concreta sobre lo que quiere, el rendimiento del modelo mejora de forma más predecible.
Jules White, profesor de informática en la Universidad de Vanderbilt, señala que el error habitual consiste en pensar que existe una fórmula verbal específica capaz de optimizar los resultados. Según explica, el elemento determinante no es el uso de determinadas palabras, sino la forma en que se expresa la tarea. En este sentido, aportar ejemplos previos resulta especialmente eficaz, ya que permite al sistema replicar estructuras, estilos o enfoques con mayor precisión que cuando solo se le dan instrucciones abstractas.
Otra práctica recomendada es solicitar varias opciones en lugar de una única respuesta. Este enfoque no solo incrementa la probabilidad de obtener resultados útiles, sino que obliga al usuario a evaluar alternativas y precisar mejor sus necesidades. También se ha demostrado eficaz pedir al sistema que formule preguntas antes de responder, lo que le permite recopilar información adicional y ajustar la respuesta al contexto real del encargo.
Los expertos advierten, además, sobre el uso del “role-playing” en tareas que requieren exactitud. Aunque pedir al sistema que adopte el papel de un experto puede ser útil en procesos creativos o de simulación, puede reducir la fiabilidad en preguntas con una respuesta objetiva, al aumentar la tendencia del modelo a ofrecer respuestas con exceso de confianza.
Desde el punto de vista técnico, los modelos de lenguaje procesan las instrucciones descomponiendo el texto en unidades llamadas “tokens” y analizando patrones estadísticos. Este funcionamiento hace que cualquier elemento del mensaje pueda influir en la respuesta, aunque de forma difícil de anticipar. A pesar de ello, los sistemas actuales han mejorado su capacidad para identificar la intención principal del usuario, lo que reduce el impacto de variaciones menores en el lenguaje.
Rick Battle, ingeniero de aprendizaje automático en Broadcom, apunta que los modelos más recientes son más robustos que versiones anteriores y menos sensibles a cambios superficiales. Esta evolución ha restado relevancia a técnicas centradas en el tono y ha reforzado la importancia de la estructura y el contenido de las instrucciones.
Los datos recogidos indican también que una parte significativa de los usuarios mantiene fórmulas de cortesía al interactuar con estos sistemas, aunque esta práctica no tiene un impacto directo en el rendimiento. Algunos expertos señalan que puede contribuir a una experiencia de uso más cómoda, pero no altera la calidad de las respuestas.
Las conclusiones recogidas por BBC Future apuntan a que, en el uso cotidiano de herramientas basadas en inteligencia artificial, la clave no reside en cómo se formula el mensaje desde el punto de vista lingüístico, sino en la capacidad del usuario para definir con precisión qué necesita, aportar referencias claras y estructurar adecuadamente la información que proporciona al sistema.
Fuente: Laboratorio de Periodismo



