Archivo de la etiqueta: Plagio

Mountweazel: una trampa editorial para detectar el plagio

Edelstein, Stewart. “What Is a Mountweazel?Word Smarts, 2026. https://wordsmarts.com/mountweazel/

Un «mountweazel» es, simplemente, una información falsa puesta a propósito en un diccionario, enciclopedia o libro de referencia para descubrir si alguien copia ese contenido sin permiso.

El término mountweazel describe un fenómeno específico dentro de la industria editorial y de referencia: una entrada deliberadamente falsa insertada en diccionarios, enciclopedias u otras obras de referencia con el propósito de proteger el contenido contra el plagio y la copia no autorizada. A primera vista, una obra de referencia como una enciclopedia debe ser un compendio de hechos verificables y útiles para el lector, pero los editores enfrentan un problema persistente cuando otros publican contenido prácticamente idéntico sin permiso. Para contrarrestar esta práctica, algunos editores emplean “trampas” sutiles: entradas ficticias que parecen plausibles pero que no existen en realidad; si una obra rival reproduce estas entradas, queda claro que ha copiado directamente el contenido en lugar de investigarlo de forma independiente.

La etimología del término proviene de una entrada ficticia incluida en la New Columbia Encyclopedia de 1975 sobre una persona imaginaria: Lillian Virginia Mountweazel, supuestamente una fotógrafa estadounidense nacida en Ohio que realizó proyectos fotográficos sobre temas inusuales y murió trágicamente en una explosión mientras trabajaba para una revista llamada Combustible. Aunque todos los detalles de esa entrada eran completamente inventados, la inclusión de este personaje permitió a los editores identificar a quienes reprodujeran esa misma información sin autorización, revelando un caso de infracción de derechos de autor. A partir de ese ejemplo, la palabra “mountweazel” se ha convertido en un término general para estas entradas trampas en publicaciones de referencia.

Además de enciclopedias, otras formas de publicación utilizan estrategias similares: por ejemplo, algunos diccionarios han incluido palabras falsas —como “esquivalience” en ediciones de The New Oxford American Dictionary— con definiciones plausibles para detectar plagio de contenido. Asimismo, mapas pueden contener “trap streets” o calles ficticias, que cumplen una función análoga al mountweazel al revelar si otra entidad ha copiado el trabajo cartográfico. En conjunto, estas prácticas representan una curiosa intersección entre la creatividad editorial, la protección de derechos de autor y la ética de la información, y aunque no suelen impactar directamente al lector casual, reflejan respuestas ingeniosas de editores ante desafíos concretos de propiedad intelectual en un entorno cada vez más digital y competitivo.

Citas fantasma y ciencia creada con ayuda de IA en un informe sobre salud infantil de la administración Trump

Manto, Margaret. “The MAHA Report Has Been Updated to Replace Citations That Didn’t Exist.” NOTUS, 29 de mayo de 2025. https://www.notus.org/health-science/maha-report-update-citations

El informe MAHA, publicado en mayo de 2025 y encargado a la secretaria de Salud y Servicios Humanos, Robert F. Kennedy Jr., contenía numerosas referencias a estudios que no existían o eran fabricados, lo que sugiere que partes significativas del texto podrían haber sido generadas mediante prompts a sistemas de generative AI (IA generativa)

El informe Make America Healthy Again (MAHA), un documento emblemático publicado por la Comisión MAHA bajo la administración de Donald Trump, centrado en la salud infantil y en causas de enfermedad crónica en Estados Unidos. Una investigación del propio medio reveló originalmente que al menos siete citas incluidas en la versión inicial del informe simplemente no existían en la literatura científica —es decir, atribuían estudios que no estaban publicados o que jamás fueron escritos por los autores listados— lo que llevó a una fuerte preocupación por la integridad científica del texto.

Ante esta revelación, la Casa Blanca y el Departamento de Salud y Servicios Humanos (HHS) procedieron a reemplazar las citas inexistentes en una nueva versión del informe publicada en el sitio oficial de la Casa Blanca. Cinco de las referencias falsas fueron sustituidas por trabajos completamente distintos, y dos por estudios reales de los mismos autores mencionados previamente, aunque con títulos y contenidos distintos. Por ejemplo, un estudio epidemiológico supuestamente escrito por la investigadora Katherine Keyes fue reemplazado por un enlace a un artículo de KFF Health News sobre un tema similar, y otras referencias vinculadas a publicidad de medicamentos en niños se cambiaron por artículos periodísticos y estudios más antiguos sobre tendencias en uso de psicofármacos. Aunque estas nuevas fuentes parecen corresponder a estudios legítimos, no está claro si respaldan de manera precisa las afirmaciones formuladas en el informe original.

Además de sustituir las citas inexistentes, la versión actualizada también modificó referencias que habían sido mal interpretadas en la versión previa. Por ejemplo, un estudio que se usó para sostener que la psicoterapia es tan eficaz como los medicamentos en el corto plazo fue reemplazado después de que uno de los autores originales señalará a NOTUS que su investigación no incluía psicoterapia dentro de los parámetros analizados. A pesar de los cambios, tanto la Casa Blanca como funcionarios de HHS minimizaron la gravedad de los errores, describiéndolos como problemas menores de formato que ya habían sido corregidos, y defendieron la sustancia general del informe. Voceros oficiales declararon que el documento sigue siendo una evaluación histórica y transformadora para entender la epidemia de enfermedades crónicas que afectan a los niños estadounidenses, y subrayaron que los ajustes no alteran sus conclusiones principales.

Sin embargo, la actualización y corrección de citas ha suscitado debates profundos sobre los estándares de rigor científico que deben aplicarse a informes gubernamentales de salud pública, especialmente cuando estos documentos se utilizan para formular políticas importantes. Organizaciones periodísticas, científicos y legisladores han cuestionado la confiabilidad de las referencias del MAHA report y han pedido mayor transparencia en cómo se elaboran y revisan estos textos, así como sobre el uso de tecnologías como la inteligencia artificial durante su redacción. La situación ilustra las tensiones entre la comunicación científica, la integridad académica y las prioridades políticas en la producción de informes de política pública.

Un investigador “infla” su índice h en Google Scholar subiendo numerosos preprints cargados de autocitas

Joelving, Frederik. “How to Juice Your Google Scholar H-Index, Preprint by Preprint.” Retraction Watch, December 8, 2025. https://retractionwatch.com/2025/12/08/how-to-juice-your-google-scholar-h-index-preprint-by-preprint/

Un investigador logró inflar artificialmente su índice h en Google Scholar subiendo numerosos preprints cargados de autocitas, aprovechando que la plataforma indexa documentos sin revisión por pares.

Un investigador asociado a la Universidad de Zhejiang, Muhammad Zain Yousaf, logró un aumento extraordinario en su índice h de Google Scholar en un corto período de tiempo mediante una estrategia que aprovechó preprints cargados de autocitas. Según la investigación, Yousaf subió diez documentos a un servidor de preprints (TechRxiv) en solo dos días, y la mayoría de las referencias dentro de estos documentos eran trabajos propios, en muchos casos con el autor repitiéndose en una proporción muy alta de la bibliografía. Esto provocó que su índice h, una medida de productividad y impacto científico que combina publicaciones y citaciones, se disparara a niveles comparables a los de académicos sénior, aunque la calidad real de los documentos era cuestionada por expertos que los describieron como incoherentes o de baja calidad técnica.

La situación generó sospechas de manipulación de métricas académicas, ya que Google Scholar indexa automáticamente citas incluso de fuentes sin revisión por pares, lo que permite que documentos no evaluados formalmente influyan en el cómputo de indicadores bibliométricos. Investigadores que analizaron el caso descubrieron que, al excluir autocitas y fuentes sin revisión formal (como preprints y actas de conferencias), el índice h real de Yousaf se reducía a la mitad o más, lo que pone en evidencia la fragilidad del sistema para medir el impacto científico auténtico frente a maniobras de este tipo.

El informe también pone énfasis en que esta no es una anomalía única: otros casos documentados muestran que Google Scholar puede ser sencillo de manipular debido a la forma en que indexa contenido en línea, lo que plantea preocupaciones sobre su uso generalizado para evaluaciones académicas, contrataciones y financiación. Expertos citados en el artículo señalan que, mientras continúe la presión sobre investigadores para obtener altas métricas de citación, seguirán apareciendo tácticas similares que explotan lagunas en los sistemas de evaluación automatizados.

Citas invisibles y métricas falsas: la ingeniería oculta detrás de las métricas científicas

How Thousands of Invisible Citations Sneak into Papers and Make for Fake Metrics.” Retraction Watch. Publicado el 9 de octubre de 2023.
https://retractionwatch.com/2023/10/09/how-thousands-of-invisible-citations-sneak-into-papers-and-make-for-fake-metrics/

Se describe cómo investigadores detectaron un mecanismo de manipulación de métricas científicas consistente en la inserción de «citas invisibles» (o “sneaked citations”). En 2022, el informático Guillaume Cabanac observó un caso extraño: un artículo tenía más de 100 citas en menos de dos meses, pese a haberse descargado solo 62 veces. Cuando se decidió revisar los archivos de metadatos que las editoriales proporcionan a las bases de datos, y se descubrió que contenían referencias que no estaban visibles ni en el PDF ni en la versión online del artículo.

El artículo explica cómo miles de “citas invisibles” pueden infiltrarse en los metadatos de artículos científicos y generar métricas falsas. La alerta surgió cuando un investigador descubrió que un artículo acumulaba más de cien citas en menos de dos meses, pese a que apenas había sido descargado. Esto llevó a examinar los archivos de metadatos que las editoriales envían a los sistemas de indexación, donde se encontró que incluían referencias que no aparecían en el PDF ni en la versión web del artículo.

A partir de esta sospecha, se revisaron los metadatos que las editoriales envían a las bases de datos. En esos archivos —que contienen información técnica para la indexación, como títulos, autores, resúmenes y referencias— se encontraron listas de citaciones que no aparecían en el artículo tal como lo ve el lector. Es decir, la versión en PDF o HTML mostraba una bibliografía normal, pero la versión enviada a los indexadores incluía muchas más referencias añadidas artificialmente. Estas “citas fantasma” no estaban destinadas al lector, sino a los sistemas automatizados.

El problema es que la mayoría de plataformas que calculan métricas —incluyendo sistemas que cuentan citas, generan índices de impacto o alimentan rankings académicos— se basan en esos metadatos. No revisan manualmente las bibliografías visibles, sino que extraen la información directamente de los archivos técnicos. Esto significa que una cita inexistente en el papel puede convertirse en una cita “real” en las métricas, alterando indicadores que son usados en evaluaciones, promociones y decisiones de financiación.

La investigación mostró que esta no era una irregularidad aislada, sino un patrón repetido en varias revistas controladas por un mismo editor. En algunos casos, casi una décima parte de todas las referencias de los artículos eran invisibles para los lectores, pero muy visibles para los algoritmos. Lo más preocupante es que estas citas fantasma beneficiaban sobre todo a un grupo pequeño de autores, lo que sugiere que no eran simples errores técnicos, sino un mecanismo deliberado para inflar perfiles individuales.

Este tipo de manipulación es especialmente peligrosa por su invisibilidad. No se trata de alterar un manuscrito, plagiar contenido o falsificar datos; el artículo, tal y como se publica, parece completamente normal. Toda la distorsión ocurre en una capa oculta que solo las máquinas leen y que pocos investigadores examinan. Esta sofisticación hace que sea mucho más difícil detectar el fraude y, por tanto, mucho más fácil que pase desapercibido durante largos periodos.

El artículo también subraya las implicaciones más amplias para el ecosistema de investigación. Las métricas bibliométricas se han vuelto herramientas cruciales para evaluar la productividad, el prestigio y la influencia científica. Cuando estas métricas pueden manipularse de manera tan sencilla, y a una escala tan grande, se compromete la credibilidad de todo el sistema de evaluación. Investigadores que juegan limpio pueden quedar en desventaja frente a quienes manipulan los metadatos; instituciones pueden otorgar recursos basándose en indicadores inflados; y el público puede perder confianza en la fiabilidad de la ciencia.

Finalmente, se plantea la necesidad urgente de que las editoriales, los indexadores y las plataformas bibliométricas revisen sus procedimientos, auditen los metadatos que reciben y establezcan medidas de detección de anomalías. La transparencia en la gestión de metadatos y la trazabilidad de las referencias podrían ayudar a evitar este tipo de prácticas. Sin medidas correctoras, las “citas invisibles” seguirán distorsionando el sistema científico y creando métricas engañosas que no reflejan la calidad real del trabajo académico.

Academ-AI es un proyecto que detecta posibles casos de uso no declarado de inteligencia artificial en artículos científicos y ponencias

Academ-AI

https://www.academ-ai.info/

Academ-AI es un proyecto dedicado a detectar casos sospechosos de uso no declarado de inteligencia artificial en la literatura académica. Su objetivo es identificar artículos publicados en revistas científicas o presentados en congresos que contengan fragmentos de texto con rasgos característicos de los modelos de lenguaje, pero en los que no se haya reconocido explícitamente el uso de estas herramientas.

La iniciativa busca llamar la atención sobre un fenómeno cada vez más común en la comunicación científica y fomentar una mayor transparencia editorial. El proyecto recopila ejemplos de textos en los que se observan expresiones o estructuras típicas de la escritura generada por IA, como frases genéricas, repeticiones innecesarias o giros lingüísticos impropios del estilo académico. En cada caso, se muestran los fragmentos sospechosos y se explica por qué podrían haber sido producidos por un modelo de lenguaje. La página invita además a investigadores, revisores y lectores a colaborar enviando nuevos ejemplos o sugerencias para ampliar la base de datos.

Academ-AI solo incluye artículos de revistas y ponencias de conferencias, dejando fuera otros formatos como libros, capítulos o preprints. El sitio organiza los casos documentados y ofrece una visión general de la extensión del fenómeno, que afecta a publicaciones de distintos campos del conocimiento y niveles de prestigio.

Aunque el propio proyecto reconoce que algunos textos pueden haber sido incluidos por error, su principal contribución es poner de relieve los riesgos que implica la falta de transparencia en el uso de la inteligencia artificial en la escritura científica. Academ-AI actúa así como una herramienta de vigilancia ética y como un recordatorio de la necesidad de reforzar las políticas editoriales que garanticen la autenticidad y la integridad del trabajo académico.

Acuerdo histórico de 1.500 millones de dólares entre Anthropic y autores por uso no autorizado de libros por su inteligencia artificial

Ortutay, Barbara. “Judge Approves $1.5 Billion Copyright Settlement Between AI Company Anthropic and Authors.” AP News, 25 de septiembre de 2025. https://apnews.com/article/anthropic-authors-copyright-judge-artificial-intelligence-9643064e847a5e88ef6ee8b620b3a44c

Un juez aprobó un acuerdo de 1.500 millones de dólares entre Anthropic y autores cuyos libros fueron usados sin permiso para entrenar su IA. Cada obra recibirá aproximadamente 3.000 dólares, aunque no cubre libros futuros. El caso sienta un precedente clave en la protección de derechos de autor frente a tecnologías de inteligencia artificial.

El 25 de septiembre de 2025, un juez federal aprobó preliminarmente un acuerdo histórico de 1.500 millones de dólares entre la empresa de inteligencia artificial Anthropic y un grupo de autores y editores. La disputa surgió cuando los autores denunciaron que la compañía había utilizado sin autorización cerca de 465.000 libros protegidos por derechos de autor para entrenar su modelo de lenguaje Claude. Este acuerdo prevé una compensación de aproximadamente 3.000 dólares por cada libro afectado, aunque no contempla obras que se publiquen en el futuro. El juez destacó la complejidad de distribuir los fondos de manera justa, pero consideró que el acuerdo era razonable y proporcionado para las partes involucradas.

La demanda original fue presentada por varios escritores que alegaban que Anthropic había recopilado ilegalmente millones de libros, almacenándolos en una biblioteca central para alimentar su sistema de inteligencia artificial. A pesar de que en una decisión previa se había reconocido que el uso de ciertos libros para entrenamiento podía considerarse un uso justo, el juez determinó que la compañía sí había infringido los derechos de autor al almacenar y explotar un volumen tan grande de obras sin permiso. Este punto resultó clave para la aprobación del acuerdo, al establecer un reconocimiento de responsabilidad por parte de la empresa.

Este acuerdo marca un precedente importante en el ámbito de la inteligencia artificial y los derechos de autor. Por primera vez, una compañía tecnológica se compromete a una compensación multimillonaria por el uso no autorizado de obras literarias, lo que podría influir en futuras disputas legales y en la manera en que los desarrolladores de IA acceden a contenido protegido. Representa un avance significativo en la protección de los autores y en la reivindicación de sus derechos frente a grandes empresas tecnológicas.

Anthropic expresó su satisfacción por la resolución, afirmando que este acuerdo les permitirá centrarse en el desarrollo de herramientas de inteligencia artificial de manera responsable y segura. El juez, por su parte, subrayó la importancia de garantizar un proceso de reclamaciones transparente, de modo que todos los autores, incluidos aquellos menos conocidos, puedan recibir una compensación justa. En conjunto, este caso refleja un punto de inflexión en la relación entre la tecnología y la propiedad intelectual, estableciendo límites claros sobre el uso de obras protegidas en la creación de sistemas de IA.

Writer: detector gratuito de contenido generado por IA

Writer.com

El detector de contenido con IA de Writer.com es una herramienta gratuita diseñada para identificar la presencia de texto generado por inteligencia artificial en fragmentos de hasta 5.000 palabras. Su objetivo es ayudar a escritores, educadores y profesionales a verificar la autenticidad de los textos antes de su publicación.

Entre sus características principales, destaca la posibilidad de pegar directamente el texto a analizar o incluso ingresar una URL para evaluar su contenido. La herramienta ofrece un puntaje de detección, expresado en porcentaje, que indica la probabilidad de que el texto haya sido generado por IA. Además, es de acceso gratuito y no requiere registro para realizar un análisis, aunque el límite por comprobación es de 5.000 palabras. Para usuarios empresariales, Writer.com ofrece una API que permite integrar el detector en flujos de trabajo automatizados.

Sin embargo, el detector tiene algunas limitaciones. Su precisión puede variar, especialmente en textos que imitan muy bien el estilo humano o que contienen frases comunes, lo que puede generar falsos positivos o negativos. Además, a diferencia de otras herramientas como Originality.ai, no cuenta con detección de plagio, lo que puede ser una desventaja para quienes buscan una solución integral. Otra limitación es que el acceso a la API solo está disponible en planes empresariales, lo que restringe su uso para individuos o pequeñas empresas que necesiten automatizar los análisis.

El detector de IA de Writer.com resulta útil para comprobaciones rápidas y accesibles de contenido generado por inteligencia artificial. Es una opción práctica para usuarios que buscan una solución sencilla y gratuita. Sin embargo, para quienes necesitan funciones más avanzadas, como análisis más profundos o detección de plagio, puede ser necesario considerar herramientas complementarias o alternativas más completas.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. 2023. “Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.” International Journal for Educational Integrity 19: 17. https://doi.org/10.1007/s40979-023-00140-5

Se investiga la efectividad de diversas herramientas de detección de contenido generado por IA, como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, en la identificación de textos producidos por modelos de IA como ChatGPT.

Utilizando párrafos sobre el tema de las torres de refrigeración en procesos de ingeniería generados por ChatGPT Modelos 3.5 y 4, junto con respuestas humanas de control, los investigadores evaluaron la capacidad de estas herramientas para distinguir entre contenido humano y generado por IA.

Los resultados revelaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT 3.5 en comparación con GPT 4. Sin embargo, al aplicarlas a las respuestas humanas de control, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Esto destaca la necesidad de un desarrollo y refinamiento continuo de las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve cada vez más sofisticado y difícil de distinguir del texto escrito por humanos.

El estudio subraya la importancia de no depender exclusivamente de estas herramientas para garantizar la integridad académica. Se recomienda adoptar un enfoque más holístico que combine el uso de herramientas de detección con revisiones manuales y consideraciones contextuales para asegurar una evaluación justa y precisa del contenido académico. Además, los autores sugieren que las instituciones educativas reconsideren sus métodos de evaluación tradicionales, incorporando tecnologías de IA para mejorar el aprendizaje y la evaluación, al tiempo que fomentan una cultura de honestidad académica y responsabilidad.

Aspectos clave:

  • Ninguna herramienta es completamente infalible; la combinación de detección automática y revisión manual es esencial.
  • Los textos generados por ChatGPT 4 son más difíciles de detectar, mostrando la necesidad de mejorar continuamente estas herramientas.
  • Se recomienda integrar estas tecnologías con políticas educativas que fomenten la honestidad académica y métodos de evaluación adaptados.

La IA esta deteriorando la confianza entre profesores y alumnos

El artículo advierte que el uso de IA en las tareas escolares está debilitando la confianza entre estudiantes y profesores, al generar sospechas y dependencia tecnológica. Señala que la clave está en replantear evaluaciones y fomentar un diálogo abierto sobre integridad académica.

Se analiza cómo el uso creciente de herramientas de inteligencia artificial por parte de los estudiantes está afectando de manera significativa la relación de confianza entre alumnos y profesores. La facilidad con la que los estudiantes pueden recurrir a la IA para redactar ensayos, resolver tareas o incluso generar ideas iniciales está transformando las dinámicas del aula. Por un lado, los estudiantes encuentran en estas herramientas una vía rápida para cumplir con las exigencias académicas; por otro, los docentes empiezan a sospechar de la autenticidad de los trabajos presentados. Esta tensión ha dado lugar a un círculo vicioso: los alumnos sienten que los profesores no confían en ellos, y los profesores perciben que los estudiantes no son honestos en su esfuerzo académico.

Esta pérdida de confianza se ve reforzada por el uso de softwares diseñados para detectar textos generados por IA. Si bien estas herramientas prometen garantizar integridad académica, en la práctica son imperfectas y generan errores de diagnóstico. Casos documentados muestran que estudiantes cuya lengua materna no es el inglés han sido señalados erróneamente como usuarios de IA, lo que introduce sesgos culturales y lingüísticos en el proceso de evaluación. Estos fallos no solo afectan la reputación de los alumnos, sino que también aumentan el escepticismo hacia los métodos de control empleados por los profesores. De esta forma, lo que debería ser un recurso para salvaguardar la calidad del aprendizaje termina, en muchos casos, debilitando todavía más la confianza mutua en el aula.

El artículo recoge también testimonios de docentes que perciben un cambio profundo en la motivación de los estudiantes. Liz Shulman, profesora citada en el texto, describe que la relación alumno-profesor ha adoptado un carácter cada vez más “transaccional”: los estudiantes parecen concentrarse únicamente en entregar tareas que cumplan requisitos formales, sin implicarse realmente en el proceso de aprendizaje. Frente a esta situación, algunas instituciones han comenzado a implementar estrategias alternativas para reducir el impacto de la IA en las evaluaciones: trabajos escritos a mano en clase, presentaciones orales, revisiones por etapas o la entrega de borradores parciales. Estas medidas buscan no solo dificultar el uso de la IA como atajo, sino también revalorizar el esfuerzo y la creatividad individuales en el proceso educativo.

Toppo enfatiza, además, que aunque la irrupción de la IA representa un reto novedoso, no es del todo ajeno a los problemas que la educación ya enfrentaba en torno a la integridad académica. Expertos como Tim Gorichanaz recuerdan que la inclinación de algunos estudiantes hacia el plagio o la deshonestidad tiene raíces previas: falta de motivación, presión por las calificaciones y ausencia de conexión con los contenidos. La IA, en este sentido, no ha creado el problema, sino que lo ha amplificado y visibilizado de manera más contundente. Lo que cambia con la IA es la escala y la facilidad con la que los estudiantes pueden optar por delegar en la máquina, lo cual plantea la urgencia de respuestas pedagógicas innovadoras.

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.