Archivo de la etiqueta: Investigación

La huella de la Inteligencia Artificial en la escritura académica: un análisis del cambio lingüístico tras los LLMs

Kousha, Kayvan, and Mike Thelwall. “How Much Are LLMs Changing the Language of Academic Papers after ChatGPT? A Multi-Database and Full Text Analysis.” arXiv (September 2025). https://arxiv.org/abs/2509.09596

El artículo analiza cómo los modelos de lenguaje grande (LLMs), en particular tras la aparición pública de ChatGPT, están influyendo en el estilo lingüístico de los artículos académicos.

Para ello, los autores se centran en doce términos muy característicos de los textos generados o corregidos con LLMs —como delve, underscore, intricate o meticulous— y estudian su evolución en seis grandes bases de datos: Scopus, Web of Science, PubMed, PubMed Central (PMC), Dimensions y OpenAlex. Además, aplican un análisis exhaustivo a más de 2,4 millones de artículos de PMC publicados entre 2021 y mediados de 2025.

Los resultados muestran un crecimiento espectacular en la frecuencia de estos términos tras la popularización de ChatGPT. Por ejemplo, entre 2022 y 2024, delve aumentó cerca de un 1500 %, underscore un 1000 % e intricate un 700 %. En los textos completos de PMC, el uso de underscore seis o más veces en un artículo se disparó más de un 10.000 % entre 2022 y 2025. También destacan los aumentos de intricate (≈ 5400 %) y meticulous (≈ 2800 %).

El fenómeno no afecta de igual manera a todas las disciplinas. El crecimiento es mucho mayor en áreas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas) que en Ciencias Sociales o en Artes y Humanidades. Asimismo, los autores detectan que la co-ocurrencia de estos términos es cada vez más fuerte: artículos que emplean underscore tienden también a incluir con mayor frecuencia pivotal o delve, mostrando correlaciones que en 2022 eran casi inexistentes.

Se evidencia que la influencia de ChatGPT y otros LLMs se percibe claramente en el lenguaje académico, no solo en la frecuencia de ciertos términos, sino también en un estilo más uniforme y “pulido”. Este fenómeno puede ayudar a investigadores no nativos en inglés a acercarse a los estándares de redacción científica, reduciendo barreras lingüísticas en la publicación internacional. Sin embargo, también plantean interrogantes sobre el riesgo de homogeneización, exceso de artificio o pérdida de diversidad estilística en la escritura académica.

Detección del uso de inteligencia artificial en artículos científicos y revisiones por pares: el caso de la AACR

Naddaf, Miryam. “AI Tool Detects LLM-Generated Text in Research Papers and Peer Reviews.” Nature, 11 de septiembre de 2025. https://doi.org/10.1038/d41586-025-02936-6

Un análisis reciente realizado por la American Association for Cancer Research (AACR) ha revelado un fuerte aumento en el uso de texto generado mediante modelos de lenguaje grande (LLMs) en artículos de investigación y revisiones por pares, particularmente desde la aparición pública de ChatGPT en noviembre de 2022

Se examinó un conjunto de más de 46.500 resúmenes, 46.000 secciones de métodos y cerca de 30.000 comentarios de revisores, usando una herramienta de detección desarrollada por Pangram Labs. Esta herramienta identificó que en 2024 el 23 % de los resúmenes de manuscritos y el 5 % de los informes de revisión contenían texto que probablemente fue generado por LLMs.

Pese a que la política de la AACR obliga a los autores a declarar el uso de inteligencia artificial en sus manuscritos, menos de una cuarta parte de quienes usaron LLMs lo hicieron.

Además, los autores de instituciones en países no anglófonos fueron más propensos a usar LLMs para mejorar el lenguaje en secciones como los métodos, aunque esto conlleva riesgos de introducir errores si se modifican descripciones técnicas.

En cuanto a las revisiones por pares, se observó que tras la prohibición del uso de LLMs para revisores por parte de la AACR, a finales de 2023 disminuyó la detección de texto generado por IA en comentarios de revisión; sin embargo, a comienzos de 2024 la presencia de estos textos volvió a aumentar significativamente.

OpenAlex y OJS: hacia la indexación universal

Chavarro, Diego; Juan Pablo Alperin; y John Willinsky. 2025. “On the Open Road to Universal Indexing: OpenAlex and Open Journal Systems.” Quantitative Science Studies (abril de 2025). https://doi.org/10.1162/qss.a.17/132192

Se analiza cómo OpenAlex indexa revistas que utilizan el sistema de gestión editorial de código abierto Open Journal Systems (OJS), lo que refleja dos iniciativas de software libre enfocadas en expandir la participación en la producción académica.

A partir de una base de datos de 47 625 revistas OJS activas, se observa que el 71 % de estas revistas tienen al menos un artículo indexado en OpenAlex. Además, el estudio destaca que el papel de los DOI proporcionados por Crossref es central: el 97 % de las revistas que emplean DOIs de Crossref están incluidas en OpenAlex, lo que sugiere que la disponibilidad de estos identificadores persistentes es clave para aparecer en el índice.

No obstante, esta dependencia tecnológica también manifiesta inequidades estructurales: las revistas con recursos limitados —en especial aquellas provenientes de países de bajos ingresos (que representan el 47 % del total de revistas OJS) y aquellas publicadas en idiomas distintos al inglés (entre el 55 % y 64 % de las revistas OJS)— presentan una representación significativamente menor en OpenAlex. El estudio plantea implicaciones teóricas importantes sobre cómo la infraestructura académica perpetúa tales disparidades, argumentando que incluso bases de datos bibliográficas de acceso abierto como OpenAlex deben abordar activamente las barreras financieras, infraestructurales y lingüísticas para promover un índice más equitativo a nivel mundial.

Una herramienta de IA etiqueta más de 1000 revistas como «cuestionables» por prácticas posiblemente sospechosas

AI Tool Labels More Than 1000 Journals for ‘Questionable,’ Possibly Shady Practices.” Science, 29 de agosto de 2025.

Un nuevo estudio publicado en Science Advances presenta una herramienta basada en inteligencia artificial capaz de analizar aproximadamente 15 000 revistas de acceso abierto con el fin de detectar aquellas que podrían incurrir en prácticas editoriales cuestionables o «somosas».

El algoritmo identificó más de 1 400 títulos potencialmente problemáticos, de los cuales más de 1000 fueron confirmados tras revisión humana. Estos títulos no figuraban previamente en ninguna lista de vigilancia y varios pertenecen a editoriales de renombre, lo que resalta la gravedad del fenómeno

La herramienta evalúa múltiples señales de alerta, como tiempos de publicación inusualmente rápidos, tasas elevadas de autocitación, inconsistencias en los miembros del consejo editorial, y falta de transparencia en políticas de licenciamiento y tarifas. Muchos de estos criterios están alineados con las prácticas recomendadas por el Directory of Open Access Journals (DOAJ), que además sirve como base para el entrenamiento del modelo

Si bien el sistema mostró una tasa de falsos positivos—aproximadamente 350 publicaciones legítimas fueron erróneamente señaladas—los autores subrayan que el propósito de la herramienta no es reemplazar la evaluación humana, sino facilitar un primer cribado de alto volumen. La verificación final debe estar a cargo de expertos humanos en integridad académica.

Los investigadores esperan que esta tecnología funcione como un “cortafuegos para la ciencia”, ayudando a universidades, editores e índices académicos a resguardar la calidad del ecosistema científico ante el incremento de revistas predatorias que, de otro modo, podrían erosionar la confiabilidad del conocimiento. El estudio refleja una creciente necesidad de herramientas automatizadas que operen en conjunto con la evaluación humana para preservar la integridad de la publicación científica

Guía de citación y referenciación Normas APA 7.ª edición

Rivera Lozada. O., Yangali Vicente, J. S., Bonilla Asalde, C. A. Guía de citación y referenciación APA (7.ª edición) Lima: Universidad Privada Norbert Wiener, 2021

Texto completo

Citar y referenciar fuentes es una de las tareas más arduas, necesarias y confusas en la labor académica, ya que requiere identificar con precisión los detalles de cada fuente y respetar la propiedad intelectual. Las normas APA, ampliamente utilizadas en humanidades, ciencias sociales, educación y derecho, ofrecen un sistema preciso y económico para organizar citas y referencias en textos extensos. Estas normas han evolucionado con el tiempo y la guía actual, basada en la séptima edición, adapta sus indicaciones al contexto hispanohablante y simplifica sus reglas para los investigadores en formación. La guía busca facilitar la práctica del citado, reducir temores y servir como recurso habitual en la actividad académica y administrativa.

Cómo puede la inteligencia artificial (IA) mejorar la gestión de datos de investigación?

Exploring How AI Can Help Research Data Management.” UC3 Blog, August 21, 2025. https://uc3.cdlib.org/2025/08/21/exploring-how-ai-can-help-research-data-management/

El artículo de UC3 explora cómo la inteligencia artificial (IA) puede mejorar la gestión de datos de investigación, enfocándose en tres áreas clave: la mejora de metadatos, la generación automatizada de planes de gestión de datos (DMPs) y la conexión de estos planes con los resultados de investigación

Mejora de metadatos con IA

UC3 utiliza IA para optimizar la calidad y escala de la curaduría de metadatos, especialmente en el Registro de Organizaciones de Investigación (ROR). La IA ayuda a transformar entradas de usuarios en salidas estructuradas y estandarizadas, acelerando el procesamiento de más de 1.000 solicitudes mensuales. Este enfoque híbrido combina la eficiencia de la IA con el juicio humano para mantener la calidad y coherencia de los datos.

Generación automatizada de DMPs con DMP Chef

UC3 está desarrollando «DMP Chef», una herramienta basada en modelos de lenguaje que permite a los investigadores generar borradores de DMPs a partir de descripciones simples de sus estudios. Actualmente, se está probando con plantillas del Instituto Nacional de la Salud (NIH), con planes de expandir a otras agencias como la Fundación Nacional de Ciencias (NSF). El objetivo es facilitar la creación de DMPs de alta calidad que los investigadores puedan personalizar según sus necesidades.uc3.cdlib.org

Conexión de DMPs con resultados de investigación

UC3 también está desarrollando herramientas para vincular automáticamente los DMPs con los resultados de investigación que describen, como conjuntos de datos, artículos y software. Estas conexiones mejoran la visibilidad y accesibilidad de los datos de investigación, facilitando su descubrimiento y uso por parte de la comunidad científica.

Asta: acelerando la ciencia a través de un agente de IA confiable.

Allen Institute for AI. 2025. “Asta: Accelerating Science through Trustworthy Agentic AI.AI2 Blog, August 26, 2025. Allen Institute for AI. https://allenai.org/blog/asta

https://asta.allen.ai/chat

Allen Institute for Artificial Intelligence (AI2) anunció el 26 de agosto de 2025 el lanzamiento de Asta, una iniciativa concebida para acelerar el avance científico mediante el uso de asistentes de inteligencia artificial “agentic”, es decir, agentes autónomos capaces de planificar y ejecutar tareas complejas.

La meta de Asta es ofrecer a los investigadores herramientas que no solo sean potentes, sino también comprensibles, verificables y confiables, de manera que la comunidad científica pueda adoptarlas sin temor a opacidad ni falta de rigor.

El ecosistema Asta se compone de tres pilares fundamentales.

  • Asta Agents, asistentes diseñados para acompañar a los investigadores en procesos científicos reales. No buscan sustituir a los humanos, sino ayudarles a plantear preguntas, organizar ideas, rastrear evidencias y distinguir entre lo que está bien establecido y lo que todavía sigue siendo una incógnita en un campo de estudio.
  • AstaBench, un marco de evaluación riguroso que proporciona estándares transparentes para medir y comparar la eficacia de los agentes de IA, ya sean de Asta o de otras iniciativas. Este banco de pruebas incluye leaderboards y tareas reales, con lo que promueve la reproducibilidad y la confianza en los resultados.
  • Asta resources, un conjunto de recursos abiertos para desarrolladores: agentes de referencia de código abierto, modelos de lenguaje entrenados con literatura científica y herramientas modulares compatibles con el Model Context Protocol (MCP), todas ellas destinadas a facilitar la construcción de agentes de investigación más sólidos y fiables.

El anuncio subraya que uno de los principales problemas en la adopción de inteligencia artificial en la ciencia es la falta de estándares claros y confiables. Los científicos suelen mostrarse escépticos, ya que sin marcos de evaluación transparentes resulta difícil juzgar si un modelo tiene realmente la capacidad de razonamiento profundo que requiere el trabajo científico. Asta responde a este reto al proporcionar, al mismo tiempo, agentes prácticos para investigadores y un sistema robusto de evaluación para desarrolladores, integrando así los dos mundos en un mismo ecosistema.

La primera versión de Asta incluye tres funciones principales.

  • La herramienta Find Papers —que antes se conocía como Paperfinder— ofrece un sistema avanzado de búsqueda de artículos que reformula consultas, sigue citas y explica por qué un texto es relevante, superando las limitaciones de los buscadores académicos convencionales.
  • La función Summarize Literature, anteriormente llamada ScholarQA, transforma preguntas de investigación en resúmenes estructurados, con afirmaciones respaldadas por citas verificables y fragmentos textuales. De este modo, permite condensar millones de resúmenes y artículos completos en panorámicas claras que destacan resultados, controversias y preguntas abiertas.
  • Finalmente, Analyze Data, aún en versión beta, convierte preguntas en lenguaje natural en análisis reproducibles: explora conjuntos de datos, genera hipótesis, ejecuta pruebas estadísticas y explica los resultados de manera comprensible, haciendo que la investigación basada en datos sea más accesible para múltiples disciplinas.

En conjunto, Asta se plantea como un impulso hacia una ciencia abierta, transparente y reproducible. Para los investigadores, significa contar con un asistente confiable que facilita la búsqueda, la síntesis de información y el análisis de datos. Para los desarrolladores, representa un entorno integral de evaluación y recursos que permite crear agentes de IA preparados para producción y capaces de responder a las exigencias de la investigación científica. Con esta iniciativa, AI2 refuerza su compromiso de situar a la inteligencia artificial como un aliado estratégico en la generación de conocimiento y en la aceleración de descubrimientos que impacten en la sociedad.

ResearchRabbit, una herramienta de inteligencia artificial (IA) diseñada para optimizar la revisión de la literatura científica

ResearchRabbit

https://www.researchrabbit.ai/

ResearchRabbit es una herramienta de inteligencia artificial (IA) diseñada para optimizar el proceso de revisión de la literatura académica. Lanzada en 2021 por Research Rabbit Inc., fue creada por Lulú Liang y Eduardo L’Hotellier con el objetivo de ayudar a los investigadores a descubrir artículos académicos relevantes y explorar redes de citación de manera visual.

Características principales

Búsqueda y descubrimiento de artículos: Permite buscar artículos académicos y encontrar trabajos relacionados, citados o que citan el artículo seleccionado.

Visualización de redes de citas: Genera gráficos interactivos que muestran las relaciones entre artículos, facilitando la identificación de tendencias y conexiones en la literatura.

Integración con Zotero: Ofrece la posibilidad de sincronizar colecciones de ResearchRabbit con el gestor bibliográfico Zotero, permitiendo una gestión eficiente de las referencias .

Alertas personalizadas: Envía notificaciones sobre publicaciones recientes y tendencias emergentes dentro de los campos de interés del usuario.

ResearchRabbit es especialmente útil en bibliotecas universitarias, ya que facilita el acceso a información académica relevante y actualizada. Su capacidad para visualizar redes de citas y recomendar artículos relacionados mejora la eficiencia en la búsqueda de literatura y apoya en la elaboración de revisiones sistemáticas. Además, su integración con Zotero permite una gestión centralizada de las referencias, optimizando el flujo de trabajo de los investigadores.

Los revisores científicos que fueron citados en el artículo tienen más probabilidades de aprobarlo en su primera evaluación

Barnett, Adrian. 2025. Peer Reviewers Altered Their Recommendation Based on Whether They Were Cited or Wanted to Be Cited. A Matched Study of Open Peer Review at Four Journals.” OSF Preprints, version 2. CC-BY 4.0 https://osf.io/preprints/osf/wdvr9_v2

El estudio realizado por Adrian Barnett analiza si los miembros de los comites científicos en el proceso de revisión abierta por pares podrían estar influyendo en las decisiones editoriales basándose en si fueron citados en el manuscrito. Para ello, se revisaron un total de 18 400 artículos provenientes de cuatro plataformas (F1000Research, Wellcome Open Research, Gates Open Research y Open Research Europe), destacadas por hacer públicas tanto todas las versiones de los artículos como los comentarios de los revisores

El análisis reveló que los revisores que fueron citados en el artículo tenían más probabilidades de aprobarlo en su primera evaluación, en comparación con aquellos que no habían sido citados. Este patrón sugiere un posible sesgo o motivación adicional asociada con la presencia de una cita al revisor en el texto revisado

Para mitigar este tipo de influencias (por ejemplo, solicitudes de cita injustificadas), Barnett sugiere una práctica de transparencia adicional: que los revisores siempre indiquen claramente en sus comentarios cuándo y por qué están recomendando que se cite su trabajo. Esta medida podría ayudar a reducir las menciones motivadas únicamente por interés personal y reforzar la integridad del proceso de revisión.

GAIDeT: una herramienta práctica para declarar el uso de la IA en la investigación y la publicación.

GAIDeT Declaration Generator

GAIDeT, es una herramienta práctica para declarar de forma clara y estandarizada el uso de IA generativa en la investigación y la publicación académica. Su propuesta combina fases del proceso de investigación con roles de la IA, apoyada por una herramienta en línea que genera declaraciones automáticas. El objetivo es fomentar transparencia, responsabilidad y confianza en la comunicación científica.

La creciente presencia de herramientas de inteligencia artificial generativa (IA generativa) en la investigación académica y plantea una necesidad crítica: mejorar la transparencia en la forma en que los investigadores divulgan el uso de estas herramientas, ya que muchas declaraciones existentes son vagas o directamente inexistentes, lo que perjudica la reproducibilidad y comprensión del proceso científico.

Para resolver esto, los autores proponen el marco GAIDeT (Generative Artificial Intelligence Delegation Taxonomy), un sistema inspirado en taxonomías como CRediT o NIST, pero adaptado específicamente para describir cómo, dónde y en qué tareas se ha delegado trabajo a herramientas de IA en el flujo de investigación. Este sistema articula dos dimensiones clave: por un lado, la etapa del proceso de investigación (por ejemplo: generación de ideas, búsqueda bibliográfica, redacción, análisis de datos); por otro, el rol específico desempeñado por la IA (como síntesis de texto, traducción, análisis de sesgos), siempre dejando claro que el control y la responsabilidad final recaen en el investigador humano.

Para facilitar su implantación, se creó una herramienta en línea llamada GAIDeT Declaration Generator . Esta herramienta guía al usuario mediante preguntas simples sobre cómo utilizó la IA, qué herramienta utilizó y en qué fase del trabajo, generando automáticamente una declaración estandarizada que puede insertarse directamente en un manuscrito —realizando así la tarea sin cargas administrativas adicionales para los autores

La adopción de GAIDeT aporta beneficios tangibles para distintos actores académicos:

  • Autores: les proporciona una forma estándar de demostrar uso responsable y transparente de la IA, reforzando la credibilidad de su trabajo.
  • Editores: simplifica la evaluación de si la IA se usó como una herramienta legítima o si se delegó indebidamente trabajo académico.
  • Revisores: les ofrece contexto adicional para valorar decisiones metodológicas y definir el alcance real de la participación de IA.
  • Moderadores de repositorios: les ayuda a proteger la integridad de los archivos, aclarando el nivel de asistencia de IA en los documentos depositados.
  • Lectores: facilita interpretar los resultados del estudio con precisión, comprendiendo en qué medida fueron asistidos por IA

Su objetivo es que las declaraciones de uso de IA sean una parte natural del proceso académico, tan comunes como los conflictos de interés o las fuentes de financiación, devolviendo claridad y confianza a la ciencia en tiempos de innovación acelerada