
Kusano, Genki, Kosuke Akimoto, y Kunihiro Takeoka. “Revisiting Prompt Engineering: A Comprehensive Evaluation for LLM‑based Personalized Recommendation.” ArXiv, julio 17 de 2025. https://arxiv.org/abs/2507.13525v1.
Los investigadores se adentran en el diseño de ingeniería de prompts, variando aspectos como la estructura (instrucciones explícitas, estilo conversacional), la extensión y formalidad del texto, y la inclusión de ejemplos contextuales. Su objetivo es entender cómo estas variantes afectan tres métricas clave: precisión de la recomendación, relevancia semántica del contenido generado y calidad de las explicaciones aportadas. Mediante el análisis de diferentes LLMs –sin nombrarlos específicamente en el artículo–, se observan diferencias marcadas según el tipo de prompt utilizado.
Los resultados muestran que un prompt cuidadosamente estructurado puede igualar o incluso superar los métodos tradicionales, especialmente en entornos con escasos datos de usuario. Destaca la importancia de utilizar ejemplos contextuales y formatos de diálogo que guían al modelo, lo que mejora tanto la exactitud de las recomendaciones como su explicabilidad. Sin embargo, los LLM se revelan sensibles a cambios mínimos en los prompts, lo que plantea desafíos de robustez y reproducibilidad si se pretende aplicarlos a gran escala.
Los autores concluyen que la ingeniería de prompts podría ofrecer una alternativa eficiente a los enfoques convencionales, evitando la necesidad de grandes volúmenes de datos, infraestructuras de entrenamiento o información demográfica. Apuntan, no obstante, a la urgencia de desarrollar métodos para automatizar el diseño de prompts y reforzar la consistencia de los modelos. Proponen futuras líneas de investigación que aborden estos retos, contribuyendo a consolidar a los LLM como herramientas fiables en entornos reales de recomendación personalizada.