Archivo de la etiqueta: Impacto

Cómo publicar un artículo científico y como obtener un alto impacto


VER VIDEO Ponencia: ¿Cómo publicar un artículo científico y cómo hacerlo con impacto? por Julio Alonso Arévalo Universidad Dr. José Matías Delgado San Salvador (El Salvador) 23/05/2023

Publicar un manuscrito científico en una revista de alto impacto puede ser un objetivo deseado para muchos investigadores. El proceso requiere un enfoque estratégico y una comprensión sólida de los principios de investigación científica y publicación. A continuación, se detallan los pasos clave para aumentar las posibilidades de lograrlo:

  1. Selección de la revista adecuada: Investiga y selecciona una revista de alto impacto que sea relevante para tu campo de estudio. Considera el alcance, el prestigio y la audiencia objetivo de la revista. Lee detenidamente las guías para autores y los requisitos de publicación de la revista para asegurarte de que tu manuscrito cumpla con sus criterios.
  2. Elaboración de un manuscrito de calidad: Realiza una investigación sólida y rigurosa, y presenta tus hallazgos de manera clara y concisa. Sigue las pautas de la revista en cuanto a la estructura y el formato del manuscrito. Asegúrate de que tu trabajo aporte nuevos conocimientos y sea relevante para la comunidad científica.
  3. Escritura y revisión minuciosas: Dedica tiempo a redactar tu manuscrito de manera clara y coherente. Evita errores gramaticales y ortográficos, y utiliza un lenguaje preciso. Solicita la revisión por parte de colegas o expertos en el campo para obtener comentarios y sugerencias constructivas antes de enviarlo.
  4. Presentación del manuscrito: Sigue las instrucciones proporcionadas por la revista para la presentación del manuscrito. Asegúrate de incluir todos los elementos requeridos, como el resumen, las palabras clave, las secciones apropiadas (introducción, métodos, resultados, discusión, conclusiones, referencias, etc.) y cualquier material adicional solicitado.
  5. Revisión por pares y respuesta a los comentarios: Una vez que envíes tu manuscrito, será sometido a un proceso de revisión por pares. Los revisores evaluarán la calidad y la originalidad de tu trabajo. Si recibes comentarios o sugerencias, respóndelos de manera exhaustiva y constructiva, abordando cada uno de los puntos planteados.
  6. Realización de ajustes y mejoras: Si se solicitan revisiones o modificaciones, trabaja en ellas de manera cuidadosa y rigurosa. Asegúrate de abordar todos los comentarios de los revisores y de proporcionar justificaciones claras para los cambios realizados en tu manuscrito.
  7. Envío final y espera de la decisión: Una vez que hayas realizado todas las modificaciones solicitadas, envía la versión final del manuscrito. Luego, debes esperar la decisión final de la revista, que puede ser aceptación, rechazo o requerir revisiones adicionales.

Recuerda que el proceso de publicación puede llevar tiempo y que recibirás retroalimentación tanto positiva como negativa. No te desalientes por los rechazos, ya que forman parte del proceso. Utiliza los comentarios y las sugerencias para mejorar tu trabajo y aumentar tus posibilidades de publicar en una revista de alto impacto en el futuro.

Tener un importante impacto en una publicación científica implica lograr que nuestro trabajo sea reconocido y valorado por la comunidad científica. El impacto de una publicación científica se refiere a la influencia y la relevancia que tiene en el campo de la investigación. Indica cómo el trabajo publicado ha contribuido al conocimiento existente, ha generado avances en la disciplina y ha influido en la comunidad científica.

El impacto de una publicación científica puede evaluarse de diferentes maneras:

  • Citaciones: Uno de los indicadores más comunes del impacto de una publicación es el número de veces que ha sido citada por otros investigadores. Cuantas más citas reciba un artículo, mayor es su impacto, ya que indica que ha sido reconocido y utilizado por la comunidad científica.
  • Índice de impacto de la revista: Algunas revistas científicas tienen un índice de impacto asignado, que se calcula en función del número de citas que reciben los artículos publicados en esa revista durante un período determinado. Un índice de impacto alto indica que los artículos publicados en esa revista son ampliamente reconocidos y citados en el campo.
  • Altmetrics: Las altmetrics (métricas alternativas) son indicadores que miden el impacto de un artículo más allá de las citas tradicionales. Estos incluyen el número de descargas, menciones en redes sociales, vistas en línea y discusiones en blogs o medios de comunicación. Los altmetrics proporcionan una visión más amplia del alcance y la influencia de un artículo.
  • Reconocimiento y premios: El reconocimiento recibido por un artículo, como premios, becas o invitaciones a presentar en conferencias, también puede indicar su impacto. Estos reconocimientos demuestran que el trabajo ha sido considerado significativo y ha generado interés en la comunidad científica.

Existen varios índices de citas ampliamente utilizados para evaluar el impacto de las publicaciones científicas. Scopus, Web of Science y Google Scholar son tres de las principales bases de datos utilizadas por la comunidad académica y científica para medir el impacto de la literatura científica. Cada una de estas bases de datos tiene características distintas:

  • Web of Science: desarrollada por Clarivate Analytics, es una base de datos multidisciplinaria que incluye una amplia gama de revistas científicas revisadas por pares, conferencias y otros tipos de literatura académica. Web of Science es conocida por su índice de citas, que permite rastrear y analizar las citas recibidas por los artículos publicados.
  • Scopus: es una base de datos bibliográfica desarrollada por Elsevier. Contiene una amplia cobertura de literatura científica, incluyendo revistas científicas revisadas por pares, libros y actas de conferencias. Scopus ofrece funciones avanzadas de búsqueda y filtrado, así como métricas de citas y análisis de rendimiento para autores, instituciones y revistas.
  • Google Scholar: Google Scholar es un motor de búsqueda académico que indexa una amplia gama de fuentes académicas, como artículos científicos, tesis, libros y preprints. Aunque no es una base de datos especializada como Scopus o Web of Science, Google Scholar ofrece una amplia cobertura y es conocido por su accesibilidad y facilidad de uso. También proporciona información sobre citas y perfiles de autores.

Los indicadores bibliométricos son medidas cuantitativas utilizadas para evaluar la producción científica y el impacto de las publicaciones académicas. Estos indicadores se basan en datos bibliográficos, como el número de citas recibidas por un artículo o el número de artículos publicados por un autor en particular. Algunos de los indicadores bibliométricos más comunes son:

  • Factor de impacto (Impact Factor, IF): El factor de impacto se aplica a las revistas científicas y es una medida del número promedio de citas recibidas por los artículos publicados en esa revista durante un período determinado. Es calculado por empresas como Clarivate Analytics y se utiliza ampliamente para evaluar la calidad y la influencia de las revistas.
  • Índice h (H-index): El índice h es una medida desarrollada por el físico Jorge E. Hirsch que evalúa tanto la productividad como el impacto de un investigador. Indica el número de artículos (h) que han sido citados al menos h veces. Por ejemplo, un investigador con un índice h de 20 tiene al menos 20 artículos que han sido citados al menos 20 veces cada uno.
  • El CiteScore es un indicador bibliométrico que se utiliza en la base de datos Scopus para evaluar el impacto de las revistas científicas. Es calculado anualmente por Elsevier y representa el promedio de citas recibidas por los artículos publicados en una revista en los últimos tres años.

Aquí tienes algunos consejos sobre cómo aumentar el impacto de tu publicación científica:

  1. Selección del tema adecuado: Elije un tema de investigación relevante y de actualidad en tu campo. Identifica brechas en el conocimiento existente y enfoques novedosos para abordar esas brechas. Esto aumentará las posibilidades de que tu trabajo sea considerado importante y valioso.
  2. Calidad de la investigación: Realiza una investigación rigurosa y de alta calidad. Asegúrate de tener un diseño experimental sólido, una muestra adecuada, métodos precisos y análisis estadísticos adecuados. Cuanto más sólida sea tu investigación, mayor será su impacto potencial.
  3. Contribución original: Asegúrate de que tu trabajo aporte algo nuevo al campo científico. Esto podría ser la identificación de nuevos hallazgos, la aplicación de métodos innovadores o la resolución de un problema relevante. Demuestra la originalidad de tu trabajo y su contribución al conocimiento existente.
  4. Escritura clara y concisa: Comunica tus ideas de manera clara y accesible. Utiliza un lenguaje técnico apropiado pero evita la jerga excesiva. Organiza tu artículo de forma lógica y asegúrate de que sea fácil de leer y comprender. Utiliza gráficos, tablas y figuras para ilustrar tus resultados de manera efectiva.
  5. Contextualización y relevancia: Sitúa tu investigación en el contexto más amplio de tu campo. Explica cómo tus hallazgos se relacionan con el conocimiento existente y cómo podrían tener implicaciones prácticas o teóricas. Destaca la relevancia de tu trabajo y su impacto potencial en la comunidad científica y en la sociedad en general.
  6. Publica en revistas de alto impacto: Elige revistas de renombre y alto factor de impacto en tu campo. Estas revistas tienen una amplia audiencia y un riguroso proceso de revisión por pares. Publicar en revistas de alto impacto aumentará la visibilidad y credibilidad de tu trabajo.
  7. Promoción activa: No te quedes solo en la publicación de tu trabajo. Promuévelo activamente a través de redes sociales, conferencias y colaboraciones con otros investigadores. Comparte tus resultados y discute tus hallazgos con la comunidad científica. Cuanto más se difunda y se debata tu trabajo, mayor será su impacto potencial.
  8. Mantén la pasión por tu trabajo, busca retroalimentación y colabora con otros investigadores para aumentar la visibilidad y la influencia de tu investigación en el campo científico.

Es importante tener en cuenta que el impacto de una publicación científica se desarrolla con el tiempo. Puede llevar años antes de que los efectos de un estudio se perciban completamente y se reflejen en citas y reconocimientos. Sin embargo, un artículo que tiene un impacto significativo es aquel que influye en el campo, contribuye al avance del conocimiento y genera un cambio en la forma en que se comprende o aborda un tema determinado.

China está a la cabeza en Ciencias Naturales, mientras que EE.UU. lidera la investigación en Ciencias de la Salud

Springer Nature. (2023). Nature Index Annual Tables 2023. Recuperado de https://group.springernature.com/gp/group/media/press-releases/nature-index-annual-tables-2023/25488532

Las Tablas Anuales 2023 del Nature Index examinan las instituciones y los países que más contribuyeron a la investigación de alta calidad publicada en 2022. Las tablas, publicadas hoy, muestran que en Ciencias Naturales China ha superado a Estados Unidos y ocupa el primer puesto. En Ciencias de la Salud -incluidas por primera vez-, Estados Unidos es el país líder.


Las Tablas Anuales 2023 del Nature Index publicadas recientemente y revelan las instituciones y países que más han contribuido a la investigación de alta calidad publicada en 2022. Según estas tablas, en el campo de las ciencias naturales, China ha superado a Estados Unidos y se ha posicionado en el primer puesto. Por otro lado, en las ciencias de la salud, que han sido incluidas por primera vez en estas tablas, Estados Unidos se posiciona como el país líder.

China ha experimentado un notable ascenso en las Tablas Anuales del Nature Index, pasando del segundo al primer puesto en su contribución global a la investigación en las cuatro categorías de ciencias naturales cubiertas (ciencias físicas, química, ciencias biológicas y ciencias de la Tierra y del medio ambiente). Este cambio se ha medido utilizando la métrica Share, que evalúa la participación relativa de un país en la investigación científica.

China ha logrado un impresionante crecimiento del 21,4% en su puntaje de Share ajustado en comparación con el año anterior, lo que representa el mayor aumento entre los diez países principales de las Tablas Anuales. Este incremento destaca el compromiso y la inversión continuos de China en investigación científica y su capacidad para generar conocimiento de alta calidad en una amplia gama de disciplinas científicas.

La métrica distintiva utilizada en el Nature Index evalúa las contribuciones a las publicaciones de investigación incluidas en su base de datos, teniendo en cuenta la proporción de autores que están afiliados a instituciones específicas. Esta métrica permite medir la participación relativa de las instituciones en la producción científica.

El predominio de China en las categorías de ciencias naturales también queda patente en las tablas institucionales:

  • Seis de las diez primeras instituciones son chinas, junto a dos de Estados Unidos y una de Francia y Alemania, respectivamente.
  • Por undécimo año consecutivo desde la creación del Índice, la Academia China de las Ciencias encabeza la clasificación con una cuota de 2.054 en 2022. Se trata de una ventaja considerable sobre la Universidad de Harvard, que ocupa el segundo lugar con un porcentaje de 813, y la Sociedad Max Planck de Alemania, que ocupa el tercer lugar con un porcentaje de 682.
  • En Ciencias de la Tierra y Medioambientales, la Universidad Sun Yat-sen ha experimentado un crecimiento de más del 50% en la cuota ajustada de 2021 a 2022.
  • Fudan ha experimentado un aumento del 65% en Ciencias Biológicas
  • Y las instituciones chinas ocupan 18 de los 20 primeros puestos en Química.

Aunque la producción investigadora de China ha tomado la delantera a la de Estados Unidos, este país sigue teniendo una presencia dominante en las tablas. Tanto Estados Unidos como China cuentan con 19 instituciones entre las 50 primeras en las categorías de ciencias naturales.

Por primera vez este año, la base de datos Nature Index incluye artículos de 64 revistas médicas para que los usuarios puedan seguir las tendencias en ciencias de la salud*. En este ámbito, Estados Unidos lleva una considerable ventaja, con una cuota de 5.352, que es más de cuatro veces superior a la de China (1.287), en segundo lugar.

  • Quince de las 20 primeras instituciones en la categoría de ciencias de la salud son estadounidenses.
  • La Universidad de Harvard ocupa el primer puesto, con 487 puntos, seguida de los Institutos Nacionales de Salud, en segundo lugar, con 188 puntos.
  • Sólo Canadá, China, Suecia y el Reino Unido figuran junto a instituciones estadounidenses entre las 20 primeras.

A parte de China y Estados Unidos, el panorama mundial es desigual. Constatándose descensos significativos en los países latinoamericanos: Brasil, Chile y México que han registrado grandes caídas en sus cuotas. También se han producido descensos de dos dígitos países como Australia, un 14%, Singapur, un 15%, y Rusia, un 17%»

Más allá del donut: cinco formas de utilizar las «almetrics» para el éxito académico

Impact of Social Sciences. «Beyond the Doughnut – Five Ways to Use Altmetrics for Academic Success», 1 de junio de 2023.

Texto completa

Una década después de su creación, Andy Tattersall analiza cómo los académicos pueden hacer uso de las altmétricas más allá de los recuentos y las métricas.

El artículo analiza el uso de las altmetrics (métricas alternativas) como una herramienta para evaluar el impacto académico más allá de las métricas tradicionales, como las citas en revistas científicas. El autor destaca cinco formas en las que las altmetrics pueden ser utilizadas para lograr el éxito académico:

  1. Comprender el impacto en línea: Las altmetrics permiten rastrear el impacto de la investigación más allá de las publicaciones académicas tradicionales, incluyendo menciones en redes sociales, blogs y medios de comunicación. Esto proporciona una visión más completa del alcance y la influencia de la investigación.
  2. Identificar colaboraciones potenciales: Las altmetrics pueden ayudar a identificar investigadores y grupos de investigación con intereses similares y con un impacto significativo en sus respectivas áreas. Esto facilita la colaboración y el intercambio de conocimientos.
  3. Evaluar el impacto temprano: Las altmetrics pueden proporcionar una evaluación temprana del impacto de la investigación, incluso antes de que se publiquen las citaciones académicas formales. Esto puede ser especialmente útil para investigadores que desean demostrar el impacto de su trabajo en etapas tempranas de sus carreras.
  4. Mejorar la visibilidad y el alcance: Al promover la investigación a través de plataformas en línea y redes sociales, las altmetrics pueden aumentar su visibilidad y alcanzar a audiencias más amplias. Esto puede llevar a un mayor reconocimiento y oportunidades de colaboración.
  5. Recopilar evidencia para evaluaciones: Las altmetrics pueden proporcionar evidencia adicional para complementar las evaluaciones tradicionales basadas en citas. Al incluir datos de altmetrics en los informes de actividad académica, los investigadores pueden demostrar un impacto más amplio y diverso de su trabajo.

En conclusión, el artículo destaca que las altmetrics ofrecen nuevas formas de evaluar y medir el impacto académico, complementando las métricas tradicionales. Su uso puede ayudar a los investigadores a comprender mejor el impacto de su trabajo, identificar oportunidades de colaboración, evaluar el impacto temprano, aumentar la visibilidad y recopilar evidencia adicional para evaluaciones académicas.

Los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia

Yang, Puyu, Ahad Shoaib, Robert West, y Giovanni Colavizza. «Wikipedia and open access». arXiv, 23 de mayo de 2023. https://doi.org/10.48550/arXiv.2305.13945.

Wikipedia es una conocida plataforma de difusión del conocimiento, y las fuentes científicas, como los artículos de revistas, desempeñan un papel fundamental en apoyo de su misión. El movimiento de acceso abierto tiene como objetivo hacer que el conocimiento científico esté disponible abiertamente, e intuitivamente podríamos esperar que el acceso abierto ayude a promover la misión de Wikipedia. Sin embargo, se desconoce en gran medida el alcance de esta relación. Para llenar este vacío, se analizaron un gran conjunto de datos de citas de Wikipedia cuyo objetivo era analizar el papel del acceso abierto en los patrones de citación de Wikipedia.

Se descubrió que los artículos de acceso abierto se citan mucho y cada vez más en Wikipedia. Es más, muestran una probabilidad un 15% mayor de ser citados en Wikipedia en comparación con los artículos de acceso cerrado, después de controlar los factores de confusión. Este efecto de citación del acceso abierto es particularmente fuerte en el caso de los artículos con bajo número de citas, incluidos los publicados recientemente.

Los resultados demuestran que el acceso abierto desempeña un papel clave en la difusión del conocimiento científico, entre otras cosas al proporcionar a los editores de Wikipedia acceso oportuno a resultados novedosos. Estas conclusiones tienen importantes implicaciones para investigadores, responsables políticos y profesionales del campo de la ciencia y la tecnología de la información.

Resultados de la encuesta sobre el estado de la métrica responsable de 2021 (2022)

Figura 8 Fuentes de datos utilizadas para acceder a los datos de las métricas

Price, Robyn. «Results from the 2021 Responsible Metrics State of the Art Survey». The Bibliomagician (blog), 4 de agosto de 2022.

Ver completo


Ya están aquí los resultados de la séptima encuesta anual sobre el estado de la métrica responsable. Con un poco de retraso sobre nuestro calendario habitual de publicación, a continuación encontrará el resumen de los resultados de la encuesta de 2021 y algunas reflexiones sobre las tendencias desde que la comunidad de Bibliometría LIS inició la encuesta en 2015. Los resultados de las encuestas de años anteriores también están disponibles.

Se recibieron un total de 91 respuestas a la encuesta de 2021. Esta cifra es inferior a la recibida en 2020 (139 respuestas), que a su vez supuso un descenso sustancial con respecto a 2019 (218 respuestas). Aunque desconocemos la razón de este descenso (¿carga de trabajo por la pandemia? ¿Fatiga por las encuestas?), estamos muy agradecidos a los que respondieron y espero que muchos encuentren útil esta información.

La variedad de países representados en las respuestas muestra que el 73% de los encuestados trabajan fuera del Reino Unido.

DORA


La proporción de encuestados que informan que ya han firmado o es probable que firmen DORA sigue aumentando año tras año, del 30% en 2019; 32% en 2020 al 40% en 2021. Los factores contextuales en torno a esto podrían incluir el Wellcome Trust nombrando explícitamente a DORA como una ruta para que las organizaciones de financiación cumplan con su política de acceso abierto en 2018 y el nombramiento explícito de DORA por cOAlition S. Del 17% de los encuestados que informaron estar considerando activamente pero aún no decididos, los comentarios sobre la consideración de «perspectiva(s) disciplinaria(s)» y la firma potencial de DORA a un «‘nivel de unidad’ en lugar de un nivel universitario» indican perspectivas potencialmente diferentes sobre DORA a través de las líneas de la facultad o escuela.

Desarrollo de principios institucionales

Las organizaciones también pueden desarrollar su propio conjunto de principios de métrica responsable, y el porcentaje de encuestados que afirman haber creado o estar desarrollando sus propios principios ha aumentado de forma constante, llegando al 44% de los encuestados en 2021. Las organizaciones también pueden ser signatarias de DORA y desarrollar sus propios principios.

Fuentes de datos y herramientas

Las fuentes de datos que las instituciones encuestadas podían seleccionar para indicar que las utilizan para obtener informes de métricas muestran una popularidad sostenida de Scopus (23%) y Web of Science (20%) con respecto a los informes del año anterior, así como las plataformas institucionales (el CRIS y el Repositorio Institucional) y Google Scholar como fuentes. (Fig.8)

También se preguntó a los encuestados qué herramientas utilizan, lo que muestra la gran variedad de tipos de herramientas y estilos de análisis utilizados en el sector. La popularidad de herramientas como SciVal, Altmetric e InCites muestra la preferencia por herramientas que no necesitan conocimientos de codificación para recuperar datos y pueden crear indicadores con una construcción y un mantenimiento mínimos. SQL, VOSViewer y Bibliometrix/Biblioshiny demuestran la experiencia y los recursos del sector bibliométrico en materia de ciencia de datos y conocimientos de programación para crear soluciones personalizadas. La presencia de Google Big Query y PowerBI es especialmente interesante, ya que ninguno de los dos aparecía en los resultados de la encuesta de 2020, pero su uso cada vez mayor sugiere que, junto con Tableau, las instituciones están cada vez más interesadas en crear sus propios cuadros de mando de inteligencia empresarial y análisis, quizás para el acceso autoservicio a los datos de los usuarios que pueden conectarse a los almacenes de datos institucionales y fusionar múltiple (Fig. 9)

Figura 9 Herramientas utilizadas para construir métricas

Conclusiones

Dos tendencias continuas realmente positivas de 2015 a 2021 son el aumento del porcentaje de encuestados que afirman que su institución ha creado su propia política de métricas responsables (40% de los encuestados en 2021) y que ya se han comprometido o se comprometerán con DORA (40% de los encuestados en 2021). Esto, en mi interpretación, sugiere que hay un impulso en las instituciones para construir de manera significativa sus propios enfoques de evaluación basados en valores, así como para comprometerse con el programa global DORA y buscar su fortaleza. La intersección con otros marcos, como el Manifiesto de Leiden, y la adaptación de las políticas de otras instituciones también sugieren una cultura de flexibilidad e intercambio.

Algunas de las repercusiones citadas por los encuestados de sus políticas de métrica responsable en sus procesos institucionales son bastante notables, y algunas personas describen cambios positivos y tangibles que afectan a los procedimientos de RRHH y de evaluación. Algunos, por supuesto, también admitieron la lentitud de estos cambios y cierto apego persistente al Factor de Impacto en la evaluación. Entre las áreas en las que quizás todavía no se han tomado medidas para informar, o no se está dispuesto a hacerlo, se encuentran los mecanismos de cumplimiento. Esto puede estar relacionado con el 25% de los encuestados que afirmaron que la respuesta académica a las políticas de métricas responsables era «neutral», lo que sugiere que, en realidad, esto es difícil de captar y categorizar.

El número cada vez menor de encuestados que se someten a esta encuesta de 2019 a 2021 es una causa para que los autores contemplen si esto sigue siendo un recurso útil creado a partir del tiempo voluntario del Comité LIS-Bibliometrics. Si usted es lector y opina lo contrario, ¡háganoslo saber! Los comentarios, como siempre, están abiertos, al igual que el listserv y nuestra cuenta de Twitter.

Contribuciones: Encuesta de 2021 elaborada y distribuida por Nicolas Robinson Garcia, basada en encuestas históricas elaboradas por Lizzie Gadd; con análisis y redacción de 2021 por Robyn Price.

WeEditors.org: hacia la visibilidad y sostenimiento de revistas en acceso abierto

Díaz-Chieng, L. Y., Aviles Peralta , Y. A., Artigas, W., & Bustamante Cabrera, G. (2023). WeEditors.org: hacia la visibilidad y sostenimiento de revistas en acceso abiertoPalabra Clave (La Plata)12(2), e191. https://doi.org/10.24215/18539912e191

PDF

En los últimos años, la creación de redes sociocientíficas ha sido la norma, debido al gran impulso que puede significar agruparse y desarrollar actividades en conjunto para el logro de un fin común. En 2020 se creó la red WeEditors.org que nació de la iniciativa de tres editores de revistas científicas que querían conforman un grupo en donde se apostara por la profesionalización y se impulsaran a las revistas iberoamericanas, partiendo de la idea de que haciendo un grupo en donde convergieran revistas experimentadas y revistas nuevas, pudiera servir para transferir conocimientos y lograr en suma el mejoramiento de los procesos en la búsqueda de un posicionamiento de la ciencia latinoamericana. El objetivo de este artículo es caracterizar las revistas de la red WeEditors.org para el trazado de estrategias en pos del fortalecimiento y avance de dicha red. Se realizó un estudio descriptivo observacional durante el periodo comprendido entre los meses de mayo-junio de 2022, como fuente primaria fue empleada la base de datos Excel que forma parte del registro de dicha red, la cual contaba con un total de 98 revistas (N ꓿ 98). La realización de este estudio recopiló información interesante y suficiente para el diseño e implementación de actividades futuras a desarrollar sobre capacitaciones prácticas, implementación de publicación continua, de Ciencia Abierta, empleo de taxonomía CRediT y de código ORCID. La sistematización de este tipo de estudios de caracterización es vital para el trazado de las estrategias pertinentes y realizar las comparaciones para el análisis de la evolución de la red. Aún queda camino por recorrer, pero el futuro parece prometedor.

Construir una comunidad de evaluación en bibliotecas universitarias: Marco de Impacto de las Bibliotecas de Investigación (RLIF)

Baughman, Sue, Ava Brillat, Gordon Daines, Greg Davis, Stephanie JH McReynolds, and Margaret Roller. Building a Community of Assessment: Final Report of the Research Library Impact Framework Pilot Initiative. With an executive summary by Kevin Borden. Washington, DC: Association of Research Libraries, March 10, 2023. 

Ver informe

La iniciativa piloto Research Library Impact Framework (RLIF) de la Association of Research Libraries (ARL), establecida en 2019, ha publicado su informe final, Building a Community of Assessment. El informe detalla los proyectos de investigación, los hallazgos y las lecciones aprendidas realizadas en la fase piloto de este marco. También incluye información sobre el propio marco como medio para explorar y aprender sobre los impactos de las bibliotecas de investigación. Por último, el informe identifica los próximos pasos y las consideraciones potenciales para cualquier implementación futura.

El RLIF proporciona una estructura para examinar los servicios bibliotecarios, las operaciones, el impacto y la alineación con la misión y los objetivos institucionales en cuatro áreas críticas: Investigación y ciclo de vida académico; Enseñanza, aprendizaje y éxito de los estudiantes; Colecciones; y Espacio físico. El marco completo incluye 185 preguntas de investigación potenciales en estas áreas críticas. Sin embargo, el marco también pretende ser flexible y modular, permitiendo modificaciones y ajustes basados en cuestiones destacadas a las que se enfrentan las bibliotecas de investigación. De este modo, el marco sirve como herramienta para organizar y priorizar los esfuerzos de investigación.

La iniciativa Research Library Impact Framework (LG-18-19-0092) ha sido posible en parte gracias al Institute of Museum and Library Services (IMLS). Las opiniones, resultados, conclusiones o recomendaciones expresadas en este proyecto no representan necesariamente las del IMLS.

Futuros cambios en Journal Citation Reports para 2024

Editor-in-Chief, Nandita Quaderi, Vice President Editorial, y Web of Science Clarivate. «Mapping the Path to Future Changes in the Journal Citation Reports». Clarivate (blog), 7 de marzo de 2023. https://clarivate.com/blog/mapping-the-path-to-future-changes-in-the-journal-citation-reports/.

En julio de 2022, se cumplieron los planes para ampliar el Journal Impact Factor (JIF)™ a todas las revistas de la Web of Science Core Collection™ a partir de junio de 2023. Esto significa que este año, las revistas del Arts and Humanities Citation Index (AHCI)™ y del multidisciplinar Emerging Sources Citation Index (ESCI)™ en el Journal Citation Reports (JCR)™ recibirán un JIF por primera vez.

Recordamos que esta novedad obedece a dos motivos: Dar a todas las revistas de calidad un JIF proporcionará total transparencia a todos y cada uno de los artículos y citas que han contribuido al impacto académico de una revista, ayudando a demostrar su valor para la comunidad investigadora. También contribuirá a nivelar el terreno de juego para todas las revistas de calidad, incluidas las de acceso abierto, las de reciente creación o las especializadas, o las de ámbito regional y las del Sur Global.

Como resultado de este desarrollo, otras 9.000 revistas del JCR recibirán un JIF y se beneficiarán por primera vez de una página de perfil de revista mejorada. Además, se muestra el JIF con un decimal, en lugar de los tres decimales actuales, para animar a los usuarios a tener en cuenta otros indicadores y datos descriptivos del JCR a la hora de comparar revistas.

Clasificaciones por categorías en la versión 2023 del JCR

Este año se sugiere proporcionar clasificaciones por categorías y asignando cuartiles JIF solo para las revistas indexadas en el Science Citation Index Expanded (SCIE)™ y el Social Sciences Citation Index (SSCI)™.

También proporcionar clasificaciones separadas para las nueve categorías temáticas que están indexadas en múltiples ediciones. Por ejemplo, la Psiquiatría está incluida tanto en el SCIE como en el SSCI; este año, las revistas de Psiquiatría del SCIE seguirán clasificándose por separado de las revistas de Psiquiatría del SSCI.

El hecho de que el JIF se muestre con un decimal hará que las clasificaciones estén más igualadas. Esto afectará a la distribución de los cuartiles del JIF, ya que los cuartiles se calculan en función del número de posiciones en el ranking de una categoría determinada, y no simplemente del número de revistas de una categoría dividida equitativamente en cuatro (Figura 1).

Fig. 1

La distribución por cuartiles ha dado lugar normalmente a que aproximadamente el 25% de las revistas estén contenidas en cada cuartil, ya que los empates han sido poco frecuentes. Sin embargo, al aumentar el número de empates, la distribución cambia. Las revistas empatadas en el mismo rango no pueden dividirse entre dos cuartiles y con el aumento del número de empates veremos que algunos cuartiles contendrán un número mayor o menor de revistas que en años anteriores.

La fórmula para calcular los cuartiles puede encontrarse aquí

¿Cómo serán las clasificaciones por categorías en 2024?

En la versión del JCR del próximo año, se añadirán las revistas AHCI y ESCI a las clasificaciones por categorías del JCR y se asignarán a cuartiles JIF. Ya no habrá rankings de categorías específicos para cada edición y, en su lugar, se creará un único ranking para cada una de nuestras 254 categorías que incluirá revistas de las cuatro ediciones (SCIE, SSCI, AHCI y ESCI). Una vez más, tomando Psiquiatría como ejemplo, se mostrará un único ranking de Psiquiatría que incluye revistas indexadas en SCIE, SSCI y ESCI.

En el caso de AHCI, se introducirá por primera vez clasificaciones para las 25 categorías únicas específicas de artes y humanidades. No habrá categorías específicas de ESCI; todas las revistas indexadas en ESCI entran dentro de las 254 categorías temáticas existentes en SCIE, SSCI y AHCI.

La inclusión de 9.000 revistas adicionales de AHCI y ESCI en las clasificaciones por categorías del JIF también afectará a las clasificaciones generales y a la distribución por cuartiles el próximo año.

¿Por qué se está adoptando un enfoque gradual?

Se está ampliando el JIF a AHCI y ESCI y pasando a una visualización de un punto decimal del JIF este año y, a continuación, se incluirán las revistas AHCI y ESCI en las clasificaciones por categorías el próximo año, con el fin de proporcionar transparencia sobre cómo cada uno de estos cambios afecta por separado a las clasificaciones y cuartiles del JIF.

Esta es la primera de una serie de actualizaciones y análisis sobre cómo la ampliación del JIF a más revistas de calidad se traducirá en cambios en las clasificaciones y cuartiles en JCR y explicará cómo los usuarios pueden utilizar los filtros de JCR para ver clasificaciones que sólo incluyan revistas de ediciones de interés. Marque esta página y permanezca atento a nuevas actualizaciones.

Repensar el impacto de los datos abiertos: un primer paso hacia una evaluación europea del impacto de los datos abiertos

                                             

Publications Office of the European Union, Ooijen, C., Osimo, D., Regeczi, D., et al., Rethinking the impact of open data : a first step towards a European impact assessment for open data, Publications Office of the European Union, 2023, https://data.europa.eu/doi/10.2830/911822

Este informe es el primero de una serie de cuatro cuyo objetivo es establecer una metodología estándar para la evaluación del impacto de los datos abiertos que pueda utilizarse en toda Europa. Este ejercicio es clave porque no existe una definición coherente del impacto de los datos abiertos.

La falta de una base conceptual sólida ha hecho más difícil para los portales de datos demostrar su valor a través de pruebas empíricas. También pone en entredicho la capacidad de la UE para comprender y comparar los resultados de los distintos Estados miembros. La mayoría de los artículos académicos que buscan explorar el impacto de los datos hacen referencia a los marcos de datos abiertos existentes, siendo los de madurez de datos abiertos (ODM) y barómetro de datos abiertos (ODB) los más frecuentemente representados.

Estos dos marcos distinguen entre distintos tipos de impacto, y ambos mencionan en particular el impacto social, político y económico. El ODM también incluye en su marco el impacto medioambiental. A veces, estos marcos divergen de las propias recomendaciones de la Comisión Europea sobre la mejor manera de medir el impacto, como se explica en secciones específicas de las directrices para legislar mejor y la caja de herramientas para legislar mejor. Ayudan a responder a una pregunta fundamental para los responsables políticos: ¿son mayores los beneficios que se obtienen que los costes de recopilar y distribuir datos (abiertos)? En futuros informes de esta serie se estudiará cómo adaptar mejor los marcos existentes, como el MDD, a estas directrices de importancia crítica.

Del Estudio Economic Impact of Open Data: Opportunities for value creation in Europe (2020)

Por último, el informe también examina ejemplos y reflexiones sobre la reutilización de datos abiertos en las organizaciones. A continuación se resumen las principales conclusiones

  • La especificación e implementación de conjuntos de datos de alto valor como parte de la nueva Directiva de Datos Abiertos es una oportunidad prometedora para abordar las demandas de calidad y cantidad de los datos abiertos.
  • Abordar las demandas de calidad y cantidad es importante, pero no suficiente para alcanzar todo el potencial de los datos abiertos.
  • Los reutilizadores de datos abiertos tienen que ser conscientes y capaces de comprender y aprovechar su potencial.
  • La creación de valor de los datos abiertos forma parte del reto más amplio de la transformación de competencias y procesos: un proceso largo cuyo cambio e impacto no siempre son fáciles de observar y medir.
  • Las iniciativas sectoriales y la colaboración entre los sectores público y privado fomentan la creación de valor.
  • La combinación de datos abiertos con datos personales, compartidos o procedentes de crowdsourcing es vital para hacer realidad un mayor crecimiento del mercado de datos abiertos.
  • Para los distintos retos, debemos explorar y mejorar múltiples enfoques de reutilización de datos que sean éticos, sostenibles y adecuados a su finalidad.

¿Cuáles de los metadatos relevantes para bibliometría son iguales y cuáles diferentes al pasar de Microsoft Academic Graph a OpenAlex?

Scheidsteger, Thomas, y Robin Haunschild. «Which of the metadata with relevance for bibliometrics are the same and which are different when switching from Microsoft Academic Graph to OpenAlex?» Profesional de La Información 32, n.o 2 (4 de marzo de 2023). https://doi.org/10.3145/epi.2023.mar.09.

PDF Español

PDF Inglés

Con el anuncio de la retirada de Microsoft Academic Graph (MAG), la organización sin ánimo de lucro OurResearch anunció que proporcionaría un recurso similar bajo el nombre de OpenAlex. Así pues, se compararon los metadatos relevantes para los análisis bibliométricos de la última instantánea de MAG con una de las primeras de OpenAlex. Prácticamente todas las obras de MAG se transfirieron a OpenAlex conservando sus datos bibliográficos año de publicación, volumen, primera y última página, DOI, así como el número de referencias que son ingredientes importantes del análisis de citas. Más del 90% de los documentos MAG tienen tipos de documento equivalentes en OpenAlex. De los restantes, especialmente las reclasificaciones a los tipos documentales journal-article y book-chapter de OpenAlex parecen ser correctas y ascienden a más del 7%, por lo que las especificaciones de los tipos documentales han mejorado significativamente de MAG a OpenAlex. Como otro elemento de metadatos de relevancia bibliométrica, examinamos la clasificación temática de los documentos en MAG y en OpenAlex. Encontramos un número significativamente mayor de documentos con una asignación de clasificación temática en OpenAlex que en MAG. En el primer y segundo nivel, la estructura de clasificación es casi idéntica. Presentamos datos sobre las reclasificaciones de materias en ambos niveles en forma de tabla y gráfico. La evaluación de las consecuencias de las abundantes reclasificaciones de materias en las evaluaciones bibliométricas normalizadas por campos no entra dentro del ámbito del presente artículo. Aparte de esta cuestión abierta, OpenAlex parece ser en general al menos tan adecuado para los análisis bibliométricos como MAG para los años de publicación anteriores a 2021 o quizás incluso mejor debido a la cobertura más amplia de las asignaciones de tipos de documentos.