
Juzek, Tom S., y Zina B. Ward. 2025. “Why Does ChatGPT ‘Delve’ So Much? Exploring the Sources of Lexical Overrepresentation in Large Language Models.” En Proceedings of the 31st International Conference on Computational Linguistics, 6397–6411. Abu Dhabi, UAE: Association for Computational Linguistics. https://aclanthology.org/2025.coling-main.426/
En los últimos años se ha detectado un aumento notable en el uso de ciertos términos como «delve», «explore» o «tapestry», asociados a la redacción con inteligencia artificial. Este fenómeno, conocido como sobrerrepresentación léxica, sugiere una creciente influencia de modelos como ChatGPT en los textos académicos. Aunque no implica plagio, plantea dudas sobre la originalidad y el rigor en la producción científica.
Según el estudio de Juzek y Ward (2024), ha habido un notable aumento en el uso de términos como «indagar», «intrincado» y «subrayar» en comparación con hace solo unos años. Además de «delve», otras palabras que ChatGPT tiende a utilizar con mayor frecuencia incluyen «explore», «tapestry», «testament» y «leverage»

Estas palabras son empleadas de manera excesiva por modelos de lenguaje como ChatGPT. Los autores señalan que estas palabras tienden a aparecer con una frecuencia desproporcionada en resúmenes científicos, lo que sugiere que su proliferación podría deberse al uso extendido de estos modelos para la redacción de textos académicos.

Nguyen, Jeremy. Are medical studies being written with ChatGPT?
Esta tendencia se conoce como sobrerrepresentación léxica, y es parte de un fenómeno lingüístico más amplio en el que la inteligencia artificial está comenzando a influir activamente en el lenguaje humano, especialmente en registros formales como el académico.
No obstante, es importante señalar que la sobrerrepresentación léxica no necesariamente indica plagio, aunque sí puede ser un indicio de que un texto no es completamente original. El análisis de este fenómeno debe ser parte de una investigación más exhaustiva sobre la autenticidad de un texto. Nguyen subraya que, aunque el uso aislado de la palabra «delve» no demuestra por sí mismo la intervención de inteligencia artificial, su repetida aparición en artículos científicos podría señalar la influencia de herramientas como ChatGPT en la escritura académica. Este patrón sugiere que muchos investigadores están recurriendo a estas tecnologías para optimizar y acelerar el proceso de redacción de sus trabajos.
Este fenómeno ha generado preocupación en la comunidad científica, ya que podría afectar la calidad y la originalidad de la investigación publicada. Algunos expertos advierten sobre el riesgo de que el lenguaje artificialmente elaborado se infiltre en la redacción científica, diluyendo la autenticidad y el rigor académico