Archivo de la etiqueta: Impacto

Los investigadores creen que su institución valora más la publicación en revistas muy citadas que el impacto real que pueda tener un trabajo.

Grove, Jack. (2025, 12 de diciembre). Policy Impact Undervalued by Universities, Social Scientists Say. Inside Higher Ed. Recuperado de https://www.insidehighered.com/news/faculty-issues/research/2025/12/12/social-scientists-policy-impact-undervalued-universities

Los resultados reflejan que las universidades tienden a valorar más las publicaciones en revistas altamente citadas y otras métricas tradicionales de prestigio académico, como el recuento de citas o factores de impacto, antes que evaluar el impacto real de la investigación en la formulación de políticas o cambios sociales tangibles.

Encuesta global realizada por Sage entre más de 1 800 científicos sociales de 92 países, centrada en entender cómo perciben la valoración que sus universidades otorgan al impacto de su investigación en la sociedad y las políticas públicas. Según los datos del sondeo, solo alrededor de un tercio de los participantes considera que su institución los promovería o les daría valor por el impacto de su trabajo fuera del ámbito académico, lo que indica una desconexión entre las aspiraciones de estos investigadores y las prioridades institucionales.

En el estudio, el 92 % de los encuestados afirmó que para ellos el objetivo principal de la investigación es contribuir positivamente a la sociedad, pero solo el 68 % cree que esto sea una meta compartida por sus instituciones. Asimismo, un porcentaje similar percibe que los líderes universitarios no valoran plenamente la utilidad social de su trabajo, lo que sugiere que las prácticas de evaluación académica actuales aún están ancladas en métricas internas y tradicionales, dejando fuera dimensiones más abiertas o aplicadas del impacto científico. Cuando se les preguntó si su institución promocionaría o concedería la titularidad a un académico por sus esfuerzos por aplicar la investigación fuera del ámbito académico, solo el 37 % de los 1805 científicos sociales encuestados por Sage respondió afirmativamente.

Los datos también muestran que solo un 28 % de los científicos sociales opina que sus esfuerzos por influir en políticas públicas podrían traducirse en más financiación de investigación, y apenas un 35 % afirma que su universidad ofrece premios o reconocimiento explícito por el impacto fuera de la academia. Además, un 30 % de los encuestados declaró no recibir ningún tipo de reconocimiento por este tipo de trabajo, lo que pone en evidencia una brecha entre el compromiso de los científicos sociales con la relevancia de su investigación y las prácticas de recompensa institucional.

Del mismo modo, el 91 % de los investigadores está de acuerdo en que el objetivo final de la investigación es ampliar la bibliografía y facilitar futuras investigaciones, pero solo el 71 % cree que los responsables de su institución están de acuerdo con esto.

En conjunto, este artículo sugiere que, aunque los investigadores ven la contribución al bien público y a la toma de decisiones informadas como una parte esencial de su labor, el ecosistema académico permanece predominantemente orientado hacia la producción y citación de literatura especializada, con menor énfasis en la aplicación de conocimientos para abordar problemas sociales o influir en políticas. Esto plantea preguntas importantes sobre cómo las universidades podrían replantear sus criterios de evaluación y promoción profesional para reconocer y fomentar formas de investigación que conecten más directamente con desafíos sociales reales.

Esa percepción de desajuste entre la motivación de los científicos sociales y las instituciones debería llevar a replantearse si las métricas de prestigio utilizadas en el mundo académico están desajustadas con los valores, argumenta el informe de Sage.

Transformando la evaluación científica en las políticas de Ciencia, Tecnología e Innovación (CTI) de América Latina y el Caribe. Un estudio desde la altmetría

Calisto-Breiding, C., Peña-Pallauta, P. & Arellano-Rojas, P. (2021). Transformando la evaluación científica en las políticas de Ciencia, Tecnología e Innovación (CTI) de América Latina y el Caribe. Un estudio desde la altmetría. Información, Cultura y Sociedad, 45, 75–94. DOI: 10.34096/ics.i45.10075

El presente artículo estudia los significados que la comunidad científica internacional atribuye a las altmetrics como instrumentos de evaluación científica y componentes de una futura Política de Ciencia, Tecnología e Innovación (CTI) en Latinoamérica. Se aplica una metodología cualitativa de tipo descriptiva y se recoge la información mediante entrevistas semiestructuradas realizadas a investigadores de Chile, Argentina, Perú, Colombia, España y Estados Unidos, expertos en altmetría, métricas de información y/o políticas de información. Los resultados arrojan que las altmetrics fortalecen su valor analizándose junto a otros indicadores, ya que no miden por sí solas el impacto o calidad de la investigación, pero aportan noveles y relevantes datos de rápida acumulación, amplio alcance disciplinar y diverso origen, promoviendo el uso de nuevos canales de comunicación científica. Algunos de los indicadores altmétricos más provechosos, son las menciones en políticas públicas, en patentes de invención y en plataformas sociales de alto uso en la región, como Facebook, Twitter y Mendeley; indicadores de vinculación con el entorno, revisión por pares y otros criterios cualitativos también son relevantes. Se recomienda integrar los criterios cuantitativos y cualitativos en las políticas de CTI latinoamericanas, las cuales deben, además, ajustarse a las realidades y presupuestos locales.

Optimización para motores de IA: cómo Mejorar la visibilidad y las citaciones de tu contenido

Search Engine Journal. “A Step‑By‑Step AEO Guide For Growing AI Citations & Visibility.Search Engine Journal, 15 de noviembre de 2023. https://www.searchenginejournal.com/aeo-guide-seo-visibility-tac-spa/559880/

Se aborda la creciente importancia de optimizar contenidos no solo para los buscadores tradicionales, sino también para los sistemas de inteligencia artificial (IA), como ChatGPT, Perplexity o Claude. Estos motores de IA utilizan la web para entrenar sus modelos y para generar respuestas en tiempo real, por lo que lograr que tu contenido sea rastreado y citado por ellos se está convirtiendo en un factor clave para aumentar la visibilidad online.

Para abordar este reto, se propone un enfoque estructurado llamado Answer Engine Optimization (AEO). Este enfoque consiste en entender cómo los crawlers de IA interactúan con tu sitio y, a partir de esos datos, optimizar el contenido. Los pasos principales incluyen: analizar los logs del servidor para identificar qué bots visitan qué páginas, monitorizar la actividad con herramientas específicas y analizar qué tipo de contenido atrae más a los crawlers.

Los crawlers de IA son bots desarrollados por empresas de inteligencia artificial que navegan por la web para recopilar datos. Algunos de los más relevantes son GPTBot (OpenAI), PerplexityBot y ClaudeBot. Su función principal es recoger información para entrenar los modelos y recuperar contenido en tiempo real para responder preguntas de usuarios. Por ello, que tus páginas sean visitadas por estos bots aumenta la probabilidad de que tu contenido sea citado por sistemas de IA.

El análisis de logs del servidor es la manera más precisa de entender la actividad de estos bots, aunque puede ser técnico y complejo para sitios grandes. Alternativamente, se puede usar el plugin SEO Bulk Admin en WordPress, que permite monitorizar la actividad de los crawlers de IA de forma más accesible, aunque quizá menos exhaustiva que el análisis de logs. Esta herramienta ofrece información a nivel de página sobre qué URLs están siendo rastreadas y permite tomar decisiones de optimización basadas en datos reales.

Con la información obtenida de los crawlers, se puede mejorar la estrategia de contenido. Es recomendable analizar qué páginas son más visitadas por bots de IA, identificar patrones de contenido efectivo (como guías, preguntas frecuentes o definiciones), añadir datos estructurados (schema), hacer el contenido más claro y conciso, aumentar la autoridad mediante fuentes fiables y mejorar el enlazado interno para conectar contenido relevante.

En conclusión, los SEOs no pueden ignorar el comportamiento de los crawlers de IA. Tanto mediante el análisis de logs como mediante herramientas más sencillas, es posible diseñar estrategias basadas en datos reales que aumenten la probabilidad de que el contenido sea citado por IA. La clave está en identificar el contenido exitoso, optimizar el menos rastreado y aplicar mejoras estructurales que maximicen la visibilidad en motores de IA.

OpenAlex y OJS: hacia la indexación universal

Chavarro, Diego; Juan Pablo Alperin; y John Willinsky. 2025. “On the Open Road to Universal Indexing: OpenAlex and Open Journal Systems.” Quantitative Science Studies (abril de 2025). https://doi.org/10.1162/qss.a.17/132192

Se analiza cómo OpenAlex indexa revistas que utilizan el sistema de gestión editorial de código abierto Open Journal Systems (OJS), lo que refleja dos iniciativas de software libre enfocadas en expandir la participación en la producción académica.

A partir de una base de datos de 47 625 revistas OJS activas, se observa que el 71 % de estas revistas tienen al menos un artículo indexado en OpenAlex. Además, el estudio destaca que el papel de los DOI proporcionados por Crossref es central: el 97 % de las revistas que emplean DOIs de Crossref están incluidas en OpenAlex, lo que sugiere que la disponibilidad de estos identificadores persistentes es clave para aparecer en el índice.

No obstante, esta dependencia tecnológica también manifiesta inequidades estructurales: las revistas con recursos limitados —en especial aquellas provenientes de países de bajos ingresos (que representan el 47 % del total de revistas OJS) y aquellas publicadas en idiomas distintos al inglés (entre el 55 % y 64 % de las revistas OJS)— presentan una representación significativamente menor en OpenAlex. El estudio plantea implicaciones teóricas importantes sobre cómo la infraestructura académica perpetúa tales disparidades, argumentando que incluso bases de datos bibliográficas de acceso abierto como OpenAlex deben abordar activamente las barreras financieras, infraestructurales y lingüísticas para promover un índice más equitativo a nivel mundial.

Los revisores científicos que fueron citados en el artículo tienen más probabilidades de aprobarlo en su primera evaluación

Barnett, Adrian. 2025. Peer Reviewers Altered Their Recommendation Based on Whether They Were Cited or Wanted to Be Cited. A Matched Study of Open Peer Review at Four Journals.” OSF Preprints, version 2. CC-BY 4.0 https://osf.io/preprints/osf/wdvr9_v2

El estudio realizado por Adrian Barnett analiza si los miembros de los comites científicos en el proceso de revisión abierta por pares podrían estar influyendo en las decisiones editoriales basándose en si fueron citados en el manuscrito. Para ello, se revisaron un total de 18 400 artículos provenientes de cuatro plataformas (F1000Research, Wellcome Open Research, Gates Open Research y Open Research Europe), destacadas por hacer públicas tanto todas las versiones de los artículos como los comentarios de los revisores

El análisis reveló que los revisores que fueron citados en el artículo tenían más probabilidades de aprobarlo en su primera evaluación, en comparación con aquellos que no habían sido citados. Este patrón sugiere un posible sesgo o motivación adicional asociada con la presencia de una cita al revisor en el texto revisado

Para mitigar este tipo de influencias (por ejemplo, solicitudes de cita injustificadas), Barnett sugiere una práctica de transparencia adicional: que los revisores siempre indiquen claramente en sus comentarios cuándo y por qué están recomendando que se cite su trabajo. Esta medida podría ayudar a reducir las menciones motivadas únicamente por interés personal y reforzar la integridad del proceso de revisión.

Se publica la nueva edición de Scholar Metrics 2025

Google Scholars. “2025 Scholar Metrics Released.” Google Scholar Blog, 22 de julio de 2025. Consultado en línea. https://scholar.google.com/

English Scholar Metrics

Spanish Scholar Metrics

Social Sciences

Health & Medical Sciences

Life Sciences & Earth Sciences

Communication

El 22 de julio de 2025, Google publicó oficialmente su nueva edición de Scholar Metrics, una herramienta que permite a autores e instituciones evaluar rápida y eficazmente la visibilidad e influencia de publicaciones científicas recientes. Esta versión abarca artículos publicados entre 2020 y 2024, utilizando todas las citas de artículos indexados en Google Scholar hasta julio de 2025, y se focaliza especialmente en métricas como el h5‑index y el h5‑median, que reflejan el impacto de los artículos durante los últimos cinco años

Solo se incluyen en Scholar Metrics aquellas revistas y conferencias que cumplan ciertos requisitos: al menos 100 artículos publicados en el periodo 2020‑2024 y al menos una cita durante esos años. Además, se limita a publicaciones de sitios que siguen las pautas de inclusión de Google Scholar, y a conferencias seleccionadas en ingeniería y ciencias computacionales. Se excluyen patentes, libros, tesis, opiniones legales y publicaciones sin citaciones o con escasa producción.

La plataforma permite explorar categorías específicas como Engineering & Computer Science o Health & Medical Sciences., ofreciendo listados con las 20 principales publicaciones por h5‑index y h5‑median. También se encuentran rankings por idioma (español, portugués, entre otros), mostrando los 100 mejores títulos en cada lengua. Asimismo, es posible buscar publicaciones adicionales por palabra clave en el título, lo que facilita el acceso a revistas que no aparecen en los listados principales

Estas métricas son útiles para autores, editores y bibliotecarios que buscan evaluar o comparar la influencia de revistas dentro de un campo específico o región lingüística. No obstante, su eficacia puede estar limitada por la falta de transparencia en los criterios de indexación, la inclusión de revistas menores o mal configuradas y la ausencia de filtros por ISSN, región o características editoriales, aspectos que han sido señalados como puntos débiles en estudios críticos sobre Google Scholar Metrics

Estrategias efectivas para aumentar y gestionar éticamente la frecuencia de citación

Ebrahim, Nader Ale. «Effective Strategies for Increasing and Ethically Managing Citation FrequencySSRN, June 13, 2025. https://www.linkedin.com/pulse/effective-strategies-increasing-ethically-managing-nader-ale-ebrahim-gm2yf/

Las citas son un indicador ampliamente reconocido del impacto académico y la visibilidad de la investigación. Sin embargo, la frecuencia de citas está influenciada por múltiples factores estratégicos, técnicos y éticos. Este artículo presenta una discusión equilibrada sobre estrategias efectivas para aumentar y gestionar éticamente la frecuencia de citas, fundamentadas en principios de visibilidad de la investigación y ética de las citas. Basándose en los trabajos y materiales públicos del Dr. Nader Ale Ebrahim, el estudio detalla medidas prácticas para mejorar la descubribilidad, accesibilidad y alcance académico, advirtiendo a la vez contra la manipulación poco ética de las citas. El artículo ofrece un marco para guiar a los investigadores en la maximización del impacto académico legítimo, manteniendo la integridad en las citas.

1. Introducción
La frecuencia de citas juega un papel central en la evaluación de la influencia académica, la reputación y los rankings institucionales. Aunque una investigación impactante puede no atraer atención inmediata, una difusión estratégica puede mejorar significativamente las métricas de citas. Al mismo tiempo, la comunidad académica enfrenta un escrutinio creciente hacia prácticas poco éticas, como la auto-citación excesiva y los carteles de citas. Este artículo busca presentar estrategias basadas en evidencia para aumentar la frecuencia de citas, enfatizando límites éticos y acciones que, justificadamente, podrían reducirlas.


2. Estrategias para aumentar la frecuencia de citas

2.1 Optimización de metadatos y títulos
La visibilidad de la investigación comienza con títulos, resúmenes y metadatos bien estructurados. Repetir palabras clave relevantes en el resumen y elegir títulos precisos mejora significativamente la indexación en bases de datos. La optimización de metadatos incrementa la probabilidad de que la investigación sea recuperada por motores de búsqueda académicos.

2.2 Publicar en revistas de alta visibilidad
La selección de revistas es un factor determinante para el desempeño en citas. Los artículos en revistas bien indexadas y de alto impacto tienen mayor probabilidad de ser citados debido a su amplia difusión. Se recomienda apuntar a revistas con lectores establecidos y presencia en Scopus, Web of Science y DOAJ.

2.3 Adoptar acceso abierto y autoarchivo
Numerosos estudios muestran que los artículos en acceso abierto reciben más citas. Hacer preprints o postprints disponibles públicamente a través de repositorios institucionales y plataformas como arXiv o SSRN aumenta la descubribilidad. La visibilidad es clave para el impacto.

2.4 Mantener una presencia digital actualizada
Perfiles profesionales en plataformas como Google Scholar, ORCID, ResearchGate y páginas institucionales deben estar siempre actualizados para amplificar el alcance y la indexación del trabajo académico.

2.5 Expandir colaboraciones
La investigación muestra que colaboraciones internacionales e interdisciplinarias se correlacionan positivamente con mayores tasas de citas. Los artículos con múltiples coautores, especialmente de distintas instituciones o países, atraen una audiencia más diversa.

2.6 Utilizar redes sociales y académicas
Difundir la investigación mediante redes sociales (LinkedIn, Twitter/X), plataformas académicas y blogs extiende el alcance más allá de los lectores tradicionales de revistas. Estas actividades son esenciales en las estrategias modernas de difusión.

2.7 Publicar artículos de revisión y encuestas
Los artículos de revisión, meta-análisis y encuestas suelen atraer más citas que la investigación original por su mayor atractivo. Apuntar a revistas de alto impacto con revisiones es una estrategia probada para aumentar citas.

2.8 Compartir datos y preprints
Los investigadores que comparten conjuntos de datos o documentos en proceso suelen recibir más citas. Los datos abiertos mejoran la replicabilidad y la credibilidad, y amplían el uso del trabajo por otros académicos.


3. Estrategias para gestionar éticamente la frecuencia de citas

3.1 Evitar la auto-citación excesiva
Mantener una tasa equilibrada de auto-citación es esencial para la ética académica. Monitorizar las auto-citas con plataformas como Scopus o Google Scholar ayuda a mantener transparencia y credibilidad.

3.2 Asegurar la relevancia en las referencias
Solo se deben incluir citas que apoyen el argumento o proporcionen contexto necesario. El exceso de referencias puede disminuir la calidad del artículo y provocar solicitudes editoriales para reducirlas.

3.3 Prevenir la manipulación de citas
Prácticas poco éticas como peticiones coercitivas de cita, carteles de citas o referencias irrelevantes distorsionan las métricas académicas. Quienes las practiquen arriesgan daños reputacionales y sanciones, incluyendo la exclusión de bases de datos.

3.4 Practicar la transparencia en las citas
Hacer seguimiento de las fuentes de citas y entender las métricas, incluyendo la exclusión de auto-citas, ayuda a los investigadores a rendir cuentas. Promover la ética en las citas es parte fundamental de una investigación responsable.


4. Conclusión
Aumentar la frecuencia de citas requiere combinar investigación de calidad, difusión estratégica y prácticas éticas. El trabajo del Dr. Nader Ale Ebrahim demuestra que no solo el contenido importa, sino también cómo se comparte y accede a él. Mantener la integridad en las citas asegura que las contribuciones académicas sean creíbles y éticamente fundamentadas. Este enfoque equilibrado brinda a los investigadores las herramientas para construir un perfil académico sólido y contribuir responsablemente al ecosistema científico.

References

1.      Ale Ebrahim, N. (Access to Publications). SSRN Author Page. Retrieved from https://papers.ssrn.com/sol3/cf_dev/AbsByAuth.cfm?per_id=1379350

2.      Ale Ebrahim, N. (Teaching Materials). Figshare Author Page. Retrieved from https://figshare.com/authors/Nader_Ale_Ebrahim/100797

3.      Moed, H. F. (2005). Citation analysis in research evaluation. Springer.

4.      Bornmann, L., & Daniel, H.-D. (2008). What do citation counts measure? A review of studies on citing behavior, Journal of Documentation, 64(1), 45–80.

5.      Björk, B.-C., & Solomon, D. (2012). Open access versus subscription journals: A comparison of scientific impact. BMC Medicine, 10(1), 73.

6.      Tahamtan, I., Afshar, A. S., & Ahamdzadeh, K. (2016). Factors affecting the number of citations: A comprehensive review of the literature. Scientometrics, 107(3), 1195–1225.

7.      Harzing, A. W. (2010). The Publish or Perish Book: Your guide to effective and responsible citation analysis. Tarma Software Research.

8.      How to improve your visibility as a researcher, available online at: https://authorservices.taylorandfrancis.com/blog/research-impact/how-to-improve-research-visibility/

9.      Ale Ebrahim, N. (2025). AI-Powered Tools and Strategies to Boost Research Visibility and Impact [Presentation]. Figshare. https://doi.org/10.6084/m9.figshare.28877966.v1

10.  Ale Ebrahim, N. (2025). AI-Driven Research Tools for Literature Search, Writing, Publishing, and Boosting Research Visibility and Impact [Presentation]. Figshare. https://doi.org/10.6084/m9.figshare.28369517.v1

11.  Ale Ebrahim, N. (2025). AI Application for Maximizing Research Visibility and Impact through Open Science [Presentation]. Figshare. https://doi.org/10.6084/m9.figshare.28306838.v1

12. https://chatgpt.com

Es «ORCID y…», no «ORCID o…»: Cómo los identificadores de investigadores trabajan juntos para ayudar a los investigadores

Brown, J., & Meadows, A. (2025, junio 25). It’s “ORCID and…,” not “ORCID or…”: How researcher identifiers work together to help researchers, build a better picture of research, and streamline administrative tasks [Informe]. Zenodo. https://doi.org/10.5281/zenodo.15737460

El informe destaca que ORCID —el identificador de investigadores— no compite con otros sistemas; más bien, los integra y complementa. Su propuesta central es que los investigadores deben considerarlo “y no ‘o.’” En lugar de reemplazar otros identificadores, ORCID conecta redes nacionales, disciplinas especializadas y sistemas propietarios a través de una plataforma interoperable abierta.

ORCID surgió en 2012 para resolver la ambigüedad en la autoría científica generada por nombres similares, cambios de nombre, variaciones culturales y convenciones tipográficas. Como identificador alfanumérico persistente, funciona como una “cédula” digital que permite rastrear con precisión la producción académica de una persona. Su diseño abierto facilita la vinculación con otros sistemas de identificación (Scopus Author ID, ResearcherID, ISNI…), potenciando la automatización y evitando duplicidades.

El informe estructura su análisis en tres capas de interoperabilidad: (1) cobertura nacional, en la cual instituciones integran ORCID en sus sistemas internos para proyectarse globalmente; (2) cobertura disciplinar, mediante la asociación con infraestructuras específicas como DOI para publicaciones o RAiD para conjuntos de datos; y (3) sistemas propietarios o comerciales, que pueden integrar ORCID mediante APIs abiertas, permitiendo su uso junto con herramientas premium para la gestión de investigación.

Los beneficios se traducen en eficiencia administrativa y visibilidad de las contribuciones: al eliminar procesos manuales y consolidar identificadores, se reducen errores y aumentan los ahorros en tiempo y recursos. En algunos casos documentados en el informe, se observan ahorros equivalentes a varios días/persona al año, que podrían equivaler a ahorros millonarios si se escalan .

Clarivate presenta la edición 2025 del Journal Citation Reports con mejoras en la integridad científica y una cobertura sin precedentes

STM Publishing News. 2025. «Clarivate Unveils the 2025 Journal Citation Reports.» STM Publishing News, 18 de junio de 2025. https://www.stm-publishing.com/clarivate-unveils-the-2025-journal-citation-reports/

Clarivate Plc presentó la edición 2025 del Journal Citation Reports (JCR), una herramienta fundamental en la evaluación académica que celebra este año su 50.º aniversario. El informe se ha consolidado como referencia internacional para investigadores, instituciones y editores, proporcionando datos e indicadores que permiten valorar la relevancia e impacto de las revistas científicas en múltiples disciplinas.

Desde su creación hace 50 años por Eugene Garfield, Journal Citation Reports (JCR). ha evolucionado para adaptarse a las necesidades cambiantes de la comunicación científica y este año incorpora mejoras relevantes en favor de la integridad editorial.

La edición 2025 ofrece datos sobre 22 249 revistas académicas procedentes de 111 países y clasificadas en 254 disciplinas. De este total, 14 591 revistas pertenecen al ámbito de las ciencias, 7 559 a las ciencias sociales y 3 368 a las artes y humanidades. Además, más de 6 200 revistas son de acceso abierto de la ruta dorada (gold open access), lo que refleja la creciente importancia de este modelo de publicación. Este año también se incorporan por primera vez 618 revistas con Journal Impact Factor (JIF), lo que demuestra el compromiso de Clarivate con la actualización y ampliación constante de su base de datos.

Una de las novedades más destacadas de esta edición es el cambio metodológico en el cálculo del Journal Impact Factor: a partir de ahora, las citas de o hacia artículos retractados no se contabilizan en el numerador del JIF, aunque dichos artículos siguen formando parte del denominador. Esta decisión busca reforzar la integridad científica, asegurando que las métricas reflejen de manera más precisa la calidad real del contenido publicado. Esta medida afecta aproximadamente al 1 % de las revistas indexadas, y marca un paso relevante en la lucha contra prácticas editoriales poco éticas.

Según Clarivate Journal Citation Reports se presenta como una herramienta editorialmente independiente, sin favorecer a ningún editor en particular. A través de métricas como el JIF o el Journal Citation Indicator, así como estadísticas descriptivas, visualizaciones y datos sobre acceso abierto y procedencia geográfica de los autores, el informe permite una evaluación más completa y matizada del rendimiento de las revistas científicas. Estas herramientas ayudan a investigadores a seleccionar publicaciones adecuadas, a bibliotecas a construir colecciones estratégicas y a editores a posicionar sus revistas en el ecosistema académico global.

Los directivos de Clarivate han subrayado el valor del JCR como instrumento de confianza. La doctora Nandita Quaderi, editora jefe de Web of Science, ha destacado la importancia de preservar el legado de Garfield a través de un sistema más justo y transparente. Por su parte, Emmanuel Thiveaud ha señalado que este informe continúa siendo esencial para fomentar el conocimiento y apoyar la investigación científica en todo el mundo.

Por último, Clarivate pone a disposición de los usuarios numerosos recursos de apoyo, como el acceso a Master Journal List, materiales formativos, documentación técnica y un portal de aprendizaje. Además, el informe ofrece herramientas visuales para facilitar el análisis comparativo entre revistas, disciplinas y regiones geográficas. Con todo ello, la edición 2025 del JCR refuerza su papel como guía imprescindible para evaluar el impacto de la producción científica global.

Guía práctica para la implementación de la evaluación responsable de la investigación en organizaciones que realizan investigación

Allen, Liz, Virginia Barbour, Kelly Cobey, Zen Faulkes, Haley Hazlett, Rebecca Lawrence, Giovanna Lima, Flora Massah, y Ruth Schmidt. A Practical Guide to Implementing Responsible Research Assessment at Research Performing Organizations. Maryland, USA: DORA, 2025. https://doi.org/10.5281/zenodo.15000683

La organización DORA (Declaration on Research Assessment) ha celebrado su 12.º aniversario con la publicación de una nueva Guía Práctica para la Implementación de una Evaluación Responsable de la Investigación. Esta guía está dirigida a organizaciones que realizan investigación (RPOs) y ofrece herramientas prácticas, ejemplos ilustrativos y recursos para ayudar a estas instituciones a desarrollar, mejorar o transformar sus sistemas de evaluación científica de manera responsable, justa e inclusiva.

El documento reconoce que no existe un enfoque único que funcione para todas las instituciones ni disciplinas, por lo que propone una metodología flexible y adaptable a diferentes contextos. La guía puede ser utilizada tanto por organizaciones que deseen crear una estrategia desde cero como por aquellas que buscan reformar procesos existentes o simplemente comenzar a dar pasos hacia evaluaciones más holísticas.

Este recurso ha sido desarrollado de manera colaborativa con diversos actores del ámbito académico y científico, especialmente durante un encuentro celebrado en enero de 2025 en Maryland, EE. UU. Asimismo, se agradece la participación del Comité Directivo de DORA y de especialistas que contribuyeron a estructurar y organizar los contenidos de la guía.

La guía forma parte del Proyecto TARA, una iniciativa respaldada por la fundación Arcadia, que promueve el acceso abierto al conocimiento, la conservación del patrimonio natural y cultural, y la mejora de las prácticas académicas. Dentro de este proyecto, la guía se complementa con otras herramientas como Reformscape, Building Blocks for Impact y Debiasing Committee Composition, diseñadas para apoyar a las organizaciones que buscan reformar sus políticas de evaluación.

En conjunto, esta Guía Práctica representa un paso significativo hacia la consolidación de criterios más responsables, éticos y eficaces para valorar la calidad de la investigación, en un contexto donde la evaluación académica necesita responder a los desafíos contemporáneos de la ciencia y la sociedad.