Chavarro, Diego; Juan Pablo Alperin; y John Willinsky. 2025. “On the Open Road to Universal Indexing: OpenAlex and Open Journal Systems.” Quantitative Science Studies (abril de 2025). https://doi.org/10.1162/qss.a.17/132192
Se analiza cómo OpenAlex indexa revistas que utilizan el sistema de gestión editorial de código abierto Open Journal Systems (OJS), lo que refleja dos iniciativas de software libre enfocadas en expandir la participación en la producción académica.
A partir de una base de datos de 47 625 revistas OJS activas, se observa que el 71 % de estas revistas tienen al menos un artículo indexado en OpenAlex. Además, el estudio destaca que el papel de los DOI proporcionados por Crossref es central: el 97 % de las revistas que emplean DOIs de Crossref están incluidas en OpenAlex, lo que sugiere que la disponibilidad de estos identificadores persistentes es clave para aparecer en el índice.
No obstante, esta dependencia tecnológica también manifiesta inequidades estructurales: las revistas con recursos limitados —en especial aquellas provenientes de países de bajos ingresos (que representan el 47 % del total de revistas OJS) y aquellas publicadas en idiomas distintos al inglés (entre el 55 % y 64 % de las revistas OJS)— presentan una representación significativamente menor en OpenAlex. El estudio plantea implicaciones teóricas importantes sobre cómo la infraestructura académica perpetúa tales disparidades, argumentando que incluso bases de datos bibliográficas de acceso abierto como OpenAlex deben abordar activamente las barreras financieras, infraestructurales y lingüísticas para promover un índice más equitativo a nivel mundial.
“AI Tool Labels More Than 1000 Journals for ‘Questionable,’ Possibly Shady Practices.” Science, 29 de agosto de 2025.
Un nuevo estudio publicado en Science Advances presenta una herramienta basada en inteligencia artificial capaz de analizar aproximadamente 15 000 revistas de acceso abierto con el fin de detectar aquellas que podrían incurrir en prácticas editoriales cuestionables o «somosas».
El algoritmo identificó más de 1 400 títulos potencialmente problemáticos, de los cuales más de 1000 fueron confirmados tras revisión humana. Estos títulos no figuraban previamente en ninguna lista de vigilancia y varios pertenecen a editoriales de renombre, lo que resalta la gravedad del fenómeno
La herramienta evalúa múltiples señales de alerta, como tiempos de publicación inusualmente rápidos, tasas elevadas de autocitación, inconsistencias en los miembros del consejo editorial, y falta de transparencia en políticas de licenciamiento y tarifas. Muchos de estos criterios están alineados con las prácticas recomendadas por el Directory of Open Access Journals (DOAJ), que además sirve como base para el entrenamiento del modelo
Si bien el sistema mostró una tasa de falsos positivos—aproximadamente 350 publicaciones legítimas fueron erróneamente señaladas—los autores subrayan que el propósito de la herramienta no es reemplazar la evaluación humana, sino facilitar un primer cribado de alto volumen. La verificación final debe estar a cargo de expertos humanos en integridad académica.
Los investigadores esperan que esta tecnología funcione como un “cortafuegos para la ciencia”, ayudando a universidades, editores e índices académicos a resguardar la calidad del ecosistema científico ante el incremento de revistas predatorias que, de otro modo, podrían erosionar la confiabilidad del conocimiento. El estudio refleja una creciente necesidad de herramientas automatizadas que operen en conjunto con la evaluación humana para preservar la integridad de la publicación científica
Rivera Lozada. O., Yangali Vicente, J. S., Bonilla Asalde, C. A. Guía de citación y referenciación APA (7.ª edición) Lima: Universidad Privada Norbert Wiener, 2021
Citar y referenciar fuentes es una de las tareas más arduas, necesarias y confusas en la labor académica, ya que requiere identificar con precisión los detalles de cada fuente y respetar la propiedad intelectual. Las normas APA, ampliamente utilizadas en humanidades, ciencias sociales, educación y derecho, ofrecen un sistema preciso y económico para organizar citas y referencias en textos extensos. Estas normas han evolucionado con el tiempo y la guía actual, basada en la séptima edición, adapta sus indicaciones al contexto hispanohablante y simplifica sus reglas para los investigadores en formación. La guía busca facilitar la práctica del citado, reducir temores y servir como recurso habitual en la actividad académica y administrativa.
Allen Institute for AI. 2025. “Asta: Accelerating Science through Trustworthy Agentic AI.” AI2 Blog, August 26, 2025. Allen Institute for AI. https://allenai.org/blog/asta
Allen Institute for Artificial Intelligence (AI2) anunció el 26 de agosto de 2025 el lanzamiento de Asta, una iniciativa concebida para acelerar el avance científico mediante el uso de asistentes de inteligencia artificial “agentic”, es decir, agentes autónomos capaces de planificar y ejecutar tareas complejas.
La meta de Asta es ofrecer a los investigadores herramientas que no solo sean potentes, sino también comprensibles, verificables y confiables, de manera que la comunidad científica pueda adoptarlas sin temor a opacidad ni falta de rigor.
El ecosistema Asta se compone de tres pilares fundamentales.
Asta Agents, asistentes diseñados para acompañar a los investigadores en procesos científicos reales. No buscan sustituir a los humanos, sino ayudarles a plantear preguntas, organizar ideas, rastrear evidencias y distinguir entre lo que está bien establecido y lo que todavía sigue siendo una incógnita en un campo de estudio.
AstaBench, un marco de evaluación riguroso que proporciona estándares transparentes para medir y comparar la eficacia de los agentes de IA, ya sean de Asta o de otras iniciativas. Este banco de pruebas incluye leaderboards y tareas reales, con lo que promueve la reproducibilidad y la confianza en los resultados.
Asta resources, un conjunto de recursos abiertos para desarrolladores: agentes de referencia de código abierto, modelos de lenguaje entrenados con literatura científica y herramientas modulares compatibles con el Model Context Protocol (MCP), todas ellas destinadas a facilitar la construcción de agentes de investigación más sólidos y fiables.
El anuncio subraya que uno de los principales problemas en la adopción de inteligencia artificial en la ciencia es la falta de estándares claros y confiables. Los científicos suelen mostrarse escépticos, ya que sin marcos de evaluación transparentes resulta difícil juzgar si un modelo tiene realmente la capacidad de razonamiento profundo que requiere el trabajo científico. Asta responde a este reto al proporcionar, al mismo tiempo, agentes prácticos para investigadores y un sistema robusto de evaluación para desarrolladores, integrando así los dos mundos en un mismo ecosistema.
La primera versión de Asta incluye tres funciones principales.
La herramienta Find Papers —que antes se conocía como Paperfinder— ofrece un sistema avanzado de búsqueda de artículos que reformula consultas, sigue citas y explica por qué un texto es relevante, superando las limitaciones de los buscadores académicos convencionales.
La función Summarize Literature, anteriormente llamada ScholarQA, transforma preguntas de investigación en resúmenes estructurados, con afirmaciones respaldadas por citas verificables y fragmentos textuales. De este modo, permite condensar millones de resúmenes y artículos completos en panorámicas claras que destacan resultados, controversias y preguntas abiertas.
Finalmente, Analyze Data, aún en versión beta, convierte preguntas en lenguaje natural en análisis reproducibles: explora conjuntos de datos, genera hipótesis, ejecuta pruebas estadísticas y explica los resultados de manera comprensible, haciendo que la investigación basada en datos sea más accesible para múltiples disciplinas.
En conjunto, Asta se plantea como un impulso hacia una ciencia abierta, transparente y reproducible. Para los investigadores, significa contar con un asistente confiable que facilita la búsqueda, la síntesis de información y el análisis de datos. Para los desarrolladores, representa un entorno integral de evaluación y recursos que permite crear agentes de IA preparados para producción y capaces de responder a las exigencias de la investigación científica. Con esta iniciativa, AI2 refuerza su compromiso de situar a la inteligencia artificial como un aliado estratégico en la generación de conocimiento y en la aceleración de descubrimientos que impacten en la sociedad.
Barnett, Adrian. 2025. “Peer Reviewers Altered Their Recommendation Based on Whether They Were Cited or Wanted to Be Cited. A Matched Study of Open Peer Review at Four Journals.” OSF Preprints, version 2. CC-BY 4.0 https://osf.io/preprints/osf/wdvr9_v2
El estudio realizado por Adrian Barnett analiza si los miembros de los comites científicos en el proceso de revisión abierta por pares podrían estar influyendo en las decisiones editoriales basándose en si fueron citados en el manuscrito. Para ello, se revisaron un total de 18 400 artículos provenientes de cuatro plataformas (F1000Research, Wellcome Open Research, Gates Open Research y Open Research Europe), destacadas por hacer públicas tanto todas las versiones de los artículos como los comentarios de los revisores
El análisis reveló que los revisores que fueron citados en el artículo tenían más probabilidades de aprobarlo en su primera evaluación, en comparación con aquellos que no habían sido citados. Este patrón sugiere un posible sesgo o motivación adicional asociada con la presencia de una cita al revisor en el texto revisado
Para mitigar este tipo de influencias (por ejemplo, solicitudes de cita injustificadas), Barnett sugiere una práctica de transparencia adicional: que los revisores siempre indiquen claramente en sus comentarios cuándo y por qué están recomendando que se cite su trabajo. Esta medida podría ayudar a reducir las menciones motivadas únicamente por interés personal y reforzar la integridad del proceso de revisión.
GAIDeT, es una herramienta práctica para declarar de forma clara y estandarizada el uso de IA generativa en la investigación y la publicación académica. Su propuesta combina fases del proceso de investigación con roles de la IA, apoyada por una herramienta en línea que genera declaraciones automáticas. El objetivo es fomentar transparencia, responsabilidad y confianza en la comunicación científica.
La creciente presencia de herramientas de inteligencia artificial generativa (IA generativa) en la investigación académica y plantea una necesidad crítica: mejorar la transparencia en la forma en que los investigadores divulgan el uso de estas herramientas, ya que muchas declaraciones existentes son vagas o directamente inexistentes, lo que perjudica la reproducibilidad y comprensión del proceso científico.
Para resolver esto, los autores proponen el marco GAIDeT (Generative Artificial Intelligence Delegation Taxonomy), un sistema inspirado en taxonomías como CRediT o NIST, pero adaptado específicamente para describir cómo, dónde y en qué tareas se ha delegado trabajo a herramientas de IA en el flujo de investigación. Este sistema articula dos dimensiones clave: por un lado, la etapa del proceso de investigación (por ejemplo: generación de ideas, búsqueda bibliográfica, redacción, análisis de datos); por otro, el rol específico desempeñado por la IA (como síntesis de texto, traducción, análisis de sesgos), siempre dejando claro que el control y la responsabilidad final recaen en el investigador humano.
Para facilitar su implantación, se creó una herramienta en línea llamada GAIDeT Declaration Generator . Esta herramienta guía al usuario mediante preguntas simples sobre cómo utilizó la IA, qué herramienta utilizó y en qué fase del trabajo, generando automáticamente una declaración estandarizada que puede insertarse directamente en un manuscrito —realizando así la tarea sin cargas administrativas adicionales para los autores
La adopción de GAIDeT aporta beneficios tangibles para distintos actores académicos:
Autores: les proporciona una forma estándar de demostrar uso responsable y transparente de la IA, reforzando la credibilidad de su trabajo.
Editores: simplifica la evaluación de si la IA se usó como una herramienta legítima o si se delegó indebidamente trabajo académico.
Revisores: les ofrece contexto adicional para valorar decisiones metodológicas y definir el alcance real de la participación de IA.
Moderadores de repositorios: les ayuda a proteger la integridad de los archivos, aclarando el nivel de asistencia de IA en los documentos depositados.
Lectores:facilita interpretar los resultados del estudio con precisión, comprendiendo en qué medida fueron asistidos por IA
Su objetivo es que las declaraciones de uso de IA sean una parte natural del proceso académico, tan comunes como los conflictos de interés o las fuentes de financiación, devolviendo claridad y confianza a la ciencia en tiempos de innovación acelerada
Consensus es un motor de búsqueda impulsado por inteligencia artificial (IA) diseñado para facilitar la investigación científica y académica. A diferencia de los motores de búsqueda tradicionales, Consensus permite a los usuarios realizar preguntas en lenguaje natural y obtener respuestas basadas en evidencia extraídas de más de 200 millones de artículos científicos revisados por pares. La plataforma utiliza modelos de lenguaje avanzados para analizar y sintetizar la información relevante, proporcionando resúmenes claros y concisos con citas directas a las fuentes originales.
Cuando un usuario formula una pregunta, Consensus realiza una búsqueda en su base de datos de artículos científicos y utiliza algoritmos de IA para generar una respuesta que resume los hallazgos más relevantes. Cada respuesta incluye citas numeradas que corresponden a los artículos de donde se extrajo la información, permitiendo a los usuarios verificar y profundizar en las fuentes originales .
Consensus es especialmente útil para investigadores, estudiantes y profesionales que buscan acceder rápidamente a información científica confiable. Es ideal para:
Realizar revisiones de literatura
Obtener resúmenes de estudios científicos.
Identificar tendencias y consensos en la investigación.
Generar contenido académico respaldado por evidencia.
Li, Ning; Zhang, Jingran; Cui, Justin. ArXivBench: When You Should Avoid Using ChatGPT for Academic Writing. arXiv preprint (v2), 7 de agosto de 2025. arXiv:2504.10496 [cs.IR]. https://arxiv.org/html/2504.10496v2
Los modelos de lenguaje a gran escala (LLMs) han mostrado capacidades impresionantes en razonamiento, pregunta-respuesta y generación de texto, pero su tendencia a generar contenido erróneo o referencias falsas sigue siendo una preocupación crítica en entornos académicos rigurosos. El artículo se enfoca en evaluar qué tan fiables son estos modelos al generar referencias académicas, concretamente enlaces a artículos en arXiv.
El artículo presenta ArXivBench, un banco de pruebas diseñado para evaluar la fiabilidad de los modelos de lenguaje a gran escala (LLMs) al generar referencias y enlaces a artículos académicos en arXiv. Los autores parten de la preocupación por el uso creciente de LLMs en redacción académica, donde su capacidad para producir contenido coherente y persuasivo no siempre va acompañada de precisión factual. En particular, señalan el riesgo de que los modelos generen referencias inventadas o incorrectas, lo que compromete la integridad de un trabajo de investigación.
Para abordar este problema, ArXivBench reúne un conjunto de 6.500 prompts que cubren trece áreas temáticas dentro de la informática, organizadas en ocho categorías y cinco subcampos. La herramienta incluye un flujo de trabajo automatizado para generar nuevos prompts y un sistema de evaluación que permite medir el rendimiento de diferentes modelos sin recurrir a técnicas de recuperación aumentada (RAG), evaluando así sus capacidades “de fábrica”. Se probaron quince modelos, tanto de código abierto como propietarios, analizando su precisión al proporcionar enlaces correctos y contenido relevante.
Los resultados muestran que el rendimiento varía de forma significativa según la disciplina. El subcampo de inteligencia artificial es donde los modelos ofrecen mejores resultados, mientras que en otras áreas las tasas de error son más elevadas. Entre los modelos evaluados, Claude-3.5-Sonnet destacó por su capacidad para generar respuestas relevantes y referencias exactas, superando de forma consistente a otros competidores.
Los autores concluyen que, si bien los LLMs pueden ser útiles en ciertas fases del trabajo académico, no son aún herramientas plenamente fiables para la generación de referencias académicas, especialmente en áreas menos cubiertas por sus datos de entrenamiento. ArXivBench se propone así como un instrumento para medir y mejorar la fiabilidad de estos sistemas, ofreciendo datos comparativos que orienten tanto a investigadores como a desarrolladores hacia un uso más responsable y fundamentado de la inteligencia artificial en la producción científica.
Se analiza un problema creciente y alarmante en la ciencia: el aumento exponencial de artículos científicos fraudulentos. Mientras que el número total de publicaciones científicas se duplica aproximadamente cada quince años, el número estimado de artículos fraudulentos se duplica cada año y medio, lo que indica un ritmo mucho más acelerado de expansión de la falsedad en la literatura académica. Esta tendencia sugiere que, si continúa, los estudios fraudulentos podrían llegar a representar una proporción significativa del conocimiento científico disponible.
Uno de los factores clave detrás de este fenómeno son los llamados «paper mills», organizaciones que venden artículos ya redactados o fabricados, muchas veces con datos falsos, imágenes manipuladas o plagios. A cambio, los científicos obtienen autorías o citas sin esfuerzo real. Estas redes operan con una sofisticación sorprendente, casi como mafias, e involucran a editores corruptos, intermediarios y revistas vulnerables. Solo un pequeño número de individuos en posiciones editoriales puede facilitar la publicación masiva de estudios falsos, lo que multiplica la propagación del fraude.
El sistema editorial, tal como está estructurado, muestra vulnerabilidades importantes. Los intentos de combatir la difusión de artículos fraudulentos, como retirar revistas de bases de datos académicas o deindexarlas, han sido insuficientes. La proliferación de estudios falsos distorsiona campos enteros, dificulta los procesos de revisión y pone en riesgo los meta-análisis que guían prácticas médicas y científicas. Esto erosiona la confianza tanto dentro de la comunidad científica como en el público general, amenazando la credibilidad del método científico y sus aplicaciones.
Para llegar a su conclusión, los autores buscaron artículos publicados en PLOS ONE, una revista importante y generalmente reconocida que identifica cuál de sus 18.329 editores es responsable de cada artículo. (La mayoría de los editores son académicos que realizan la revisión por pares durante toda su investigación). Desde 2006, la revista ha publicado 276.956 artículos, 702 de los cuales fueron retractados y 2.241 recibieron comentarios en PubPeer, un sitio web que permite a otros académicos y a investigadores en línea plantear inquietudes.
El artículo también hace un llamado urgente a reforzar la integridad académica. Aunque existen herramientas para contrarrestar la amenaza —como retractaciones, exclusión de autores o instituciones, y revisiones de indexación en bases académicas—, las medidas actuales no son suficientes frente al crecimiento desenfrenado del fraude. De no implementarse estrategias más rigurosas y coordinadas, advierten los expertos, la propia ciencia podría verse comprometida.
Para preservar la credibilidad y la utilidad del conocimiento científico, será crucial que las instituciones académicas, las publicaciones y los evaluadores actúen de manera decidida y coordinada, reformando incentivos y fortaleciendo los mecanismos de control y verificación.
Mohammadi, Ehsan, Mike Thelwall, Yizhou Cai, Taylor Collier, Iman Tahamtan, and Azar Eftekhar. 2025. “Is Generative AI Reshaping Academic Practices Worldwide? A Survey of Adoption, Benefits, and Concerns.” Information Processing & Management. https://doi.org/10.1016/j.ipm.2025.104350.
Se analiza el impacto de la IA generativa (Gen AI) en la investigación y la enseñanza a través de una encuesta en 20 países dirigida a académicos con publicaciones.
La inteligencia artificial generativa (Gen AI) está transformando la investigación y la enseñanza universitaria a nivel global. Para ello, se llevó a cabo una encuesta en 20 países, dirigida a académicos con publicaciones en revistas indexadas, con el objetivo de identificar niveles de adopción, beneficios percibidos y preocupaciones.
Los resultados muestran una alta conciencia y uso de estas herramientas: un 73 % de los participantes declaró estar muy familiarizado con ellas y más de la mitad indicó utilizarlas al menos una vez al mes. No obstante, se observaron diferencias significativas según el rol académico, la disciplina, el género y el país de origen. Los doctorandos y jóvenes investigadores son los usuarios más frecuentes, mientras que los profesores con mayor antigüedad hacen un uso más limitado. A nivel disciplinar, las ciencias sociales y las humanidades presentan mayor adopción que la medicina o las ciencias puras. En cuanto a la distribución geográfica, países de Asia y Oriente Medio (como Taiwán, Corea del Sur, India o Irán) presentan tasas de uso superiores a las de Estados Unidos, Reino Unido o Rusia, lo que se explica en parte por la necesidad de traducción al inglés para la publicación académica.
En el ámbito de la investigación, las aplicaciones más comunes son la traducción de textos, la corrección y edición de borradores, la redacción preliminar de textos académicos y el apoyo en revisiones bibliográficas. En cambio, el uso para análisis de datos sigue siendo minoritario. En la docencia, las herramientas de IA generativa se emplean sobre todo para crear materiales y contenidos educativos (30 %), apoyar el aprendizaje y la enseñanza de conceptos (22 %), y diseñar tareas o ejercicios (16 %). También se utilizan, aunque en menor medida, para elaborar programas de asignaturas y dar retroalimentación a estudiantes.
Los beneficios más señalados por los encuestados incluyen la posibilidad de ofrecer tutoría personalizada, mejorar la resolución de problemas y potenciar el aprendizaje de los estudiantes. Sin embargo, las opiniones se dividen respecto a la capacidad de la IA para fomentar la creatividad o generar contenidos consistentes y fiables. Solo una quinta parte de los académicos confía plenamente en la precisión de los textos generados por IA.
Las preocupaciones son generalizadas y constituyen una parte central del estudio. Entre las más destacadas figuran la información inexacta o “alucinaciones” (67,8 %), el plagio (65 %), la reducción de las habilidades de pensamiento crítico (61,7 %), la falta de transparencia y explicabilidad de los procesos, los riesgos sobre la propiedad intelectual (52,2 %) y la privacidad de los datos (49 %). Estas inquietudes reflejan una tensión constante entre el aprovechamiento de la tecnología y la preservación de la integridad académica.
El estudio también detecta una brecha de género: las mujeres son un 10 % menos propensas que los hombres a usar IA generativa con frecuencia (uso diario o semanal) en investigación, lo que podría ampliar desigualdades ya existentes en la academia.
En conclusión, los autores sostienen que la IA generativa se ha integrado de manera significativa en la vida académica, aunque de forma desigual entre regiones, disciplinas y grupos sociales. Mientras ofrece beneficios claros en escritura, traducción y apoyo docente, persisten serias dudas sobre su precisión, ética y efectos en la creatividad y el pensamiento crítico. Por ello, recomiendan que las instituciones y responsables políticos fomenten un uso responsable y equitativo de estas herramientas, con especial atención a los grupos y países en riesgo de quedar rezagados en esta transición tecnológica.
Principales resultados:
Conciencia y uso: el 73 % de los académicos conoce ampliamente estas herramientas y más de la mitad las usa al menos una vez al mes. La adopción varía según disciplina, género, país y rol académico.
Diferencias por rol: los doctorandos y jóvenes investigadores son los principales usuarios, mientras que los profesores titulares y sénior muestran menor frecuencia.
Disciplinas y regiones: mayor uso en ciencias sociales y humanidades; más extendido en países de Asia y Oriente Medio que en EE. UU. o Reino Unido, en parte por la necesidad de traducción al inglés.
Usos en investigación: principalmente para traducción de textos, corrección, redacción preliminar y revisiones bibliográficas; menos frecuente en análisis de datos.
Usos en docencia: creación de contenidos y materiales (30 %), apoyo al aprendizaje y enseñanza de conceptos (22 %), y diseño de tareas (16 %).
Beneficios percibidos: tutoría personalizada, apoyo a la resolución de problemas y mejora del aprendizaje.
Preocupaciones principales:
Información inexacta (67,8 %).
Plagio (65 %).
Disminución del pensamiento crítico (61,7 %).
Falta de transparencia, problemas de propiedad intelectual y riesgos de privacidad de datos.
Brecha de género: las mujeres son un 10 % menos propensas a usar IA frecuentemente en investigación, lo que puede agravar desigualdades.