Archivo de la etiqueta: Índices de citas

Lanzamiento de la Plataforma de IA de Clarivate

Ben-Porat, Guy. «Introducing the Clarivate Academic AI Platform». Clarivate (blog), 21 de mayo de 2024. https://clarivate.com/blog/introducing-the-clarivate-academic-ai-platform/.

La Plataforma Académica de IA de Clarivate marca un hito significativo en su esfuerzo por empoderar a la comunidad académica con herramientas y tecnologías de IA innovadoras y servirá como una columna vertebral tecnológica, permitiendo la implementación acelerada y consistente de capacidades de IA en todo su portafolio de soluciones Académicas y Gubernamentales.

Esta iniciativa ha sido el resultado de varios proyectos de investigación en los que la empresa se ha involucrado durante el último año, trabajando estrechamente entre sus equipos de ciencia de datos, ingeniería, contenido y experiencia de usuario, y la comunidad de clientes para aprender de primera mano sobre el potencial y las limitaciones de la IA generativa (GenIA). Además, la experiencia acumulada durante años de uso de IA y aprendizaje automático en sus productos ha sido fundamental para dar forma a este avance.

Algunas de sus características son:

  • Asistente de Investigación de Web of Science: Ayudando a investigadores de todos los niveles a explorar el índice de citas más confiable del mundo, aprovechando más de un siglo de investigación, con descubrimiento en lenguaje natural, tareas guiadas y visualizaciones contextuales.
  • Asistente de Investigación de ProQuest: Permitiendo a los usuarios navegar por millones de trabajos académicos de texto completo dentro de ProQuest y obtener fácilmente nuevos conocimientos para la investigación y el aprendizaje.
  • Entrenador Académico Alethea: Fomentando las habilidades de aprendizaje y pensamiento crítico de los estudiantes al guiarlos hacia el núcleo de sus lecturas de curso, ayudándolos a destilar los puntos clave y prepararse para la discusión en clase.
  • Asistente de Investigación de Primo: Transformando el descubrimiento en bibliotecas, proporcionando a los usuarios una nueva forma de encontrar y explorar materiales a través de la búsqueda en lenguaje natural, referencias de artículos y consultas recomendadas para apoyar la investigación.

En el futuro, la plataforma ampliará sus capacidades para admitir la introducción de capacidades de IA en productos adicionales, incluidos Alma, Ebook Central, EndNote y Leganto, así como presentar eficiencias de backend como la creación y enriquecimiento de metadatos.

Declaración de Barcelona. Los investigadores necesitan bases de datos bibliográficas «abiertas»

Barcelona Declaration on Open Research Information

Español

Los investigadores necesitan bases de datos bibliográficas «abiertas», según una nueva declaración Las principales plataformas, como Web of Science, ampliamente utilizadas para generar métricas y evaluar a los investigadores, están protegidas por derechos de propiedad intelectual.


Cuando las universidades están decidiendo a quién contratar y promocionar, o cuando las organizaciones de financiamiento están seleccionando proyectos para financiar, es muy probable que estén consultando más que solo los materiales de solicitud. Muchas organizaciones confían en bases de datos que recopilan información sobre publicaciones, incluidos autores, afiliaciones, citas y fuentes de financiamiento, para crear métricas destinadas a cuantificar la productividad de un investigador y la calidad de su trabajo.

Algunas de las bases de datos más conocidas, como Web of Science y Scopus, son propietarias y ofrecen datos y servicios de acceso pago que respaldan estas y otras métricas, incluidos los rankings universitarios y los factores de impacto de las revistas. Pero en una declaración publicada hoy, más de 30 organizaciones de investigación y financiamiento llaman a la comunidad a comprometerse con plataformas que, en cambio, sean gratuitas para todos, más transparentes sobre sus métodos y sin restricciones sobre cómo se puede utilizar los datos.

La Declaración de Barcelona sobre la Información de Investigación Abierta afirma que «en un momento en que la toma de decisiones en ciencia está cada vez más guiada por indicadores y análisis, abordar los problemas de la información de investigación cerrada debe ser una prioridad absoluta». Los firmantes hasta ahora incluyen a financiadores como la Fundación Bill y Melinda Gates y la Agencia Nacional de Investigación de Francia, así como a más de una docena de instituciones académicas.

La Universidad de la Sorbona, que canceló su suscripción a Web of Science el año pasado y cambió a una plataforma más nueva y abierta llamada OpenAlex, dijo en un comunicado que “al firmar la Declaración, queremos demostrar que no solo este movimiento hacia la información de investigación abierta debería ser un objetivo, sino que también se puede lograr”. El cambio puede ayudar a remediar el enfoque de las bases de datos existentes en las revistas en inglés, dicen los defensores. También podría ayudar a mejorar “la circulación del conocimiento científico y local producido en diferentes idiomas, formatos y en diferentes regiones geográficas”, dice otro signatario, el Consejo Latinoamericano de Ciencias Sociales a través del Foro Latinoamericano para la Evaluación Científica.

Jason Portenoy, ingeniero de datos senior en OurResearch, reconoce esta necesidad de aporte de la comunidad, diciendo que es comprensible que las instituciones puedan dudar en volver a hacer el trabajo. “Pero la diferencia es que con OpenAlex, está sucediendo de manera abierta”, dice. Cualquier brecha en la calidad de los datos se está cerrando rápidamente, agrega Jason Priem, CEO de OurResearch. “OpenAlex está evolucionando muy rápidamente, y a menudo los problemas descubiertos por nuestra comunidad se solucionan en unos pocos meses”. Cuando uno de los coordinadores de la declaración, Ludo Waltman, director científico del Centro de Estudios de Ciencia y Tecnología en la Universidad de Leiden, y colegas recientemente usaron OpenAlex para clasificar más de 1400 universidades en todo el mundo, concluyeron que, aunque necesita mejorar, el enfoque produjo “datos de calidad sorprendentemente buenos”.

Daniel Hook, CEO de Digital Science, que opera la base de datos propietaria Dimensions, acoge esta idea. (Dimensions ya ofrece una versión gratuita para uso no comercial, aunque los usuarios deben suscribirse para acceder a todas las funciones). Sin embargo, Hook dice que tal transición llevará tiempo. Las bases de datos propietarias necesitan recuperar los costos de establecer, mejorar y mantener conjuntos de datos tan grandes, un desafío que los equivalentes abiertos como OpenAlex también podrían enfrentar a largo plazo.

La declaración es un «excelente desarrollo», dice Elizabeth Gadd, experta en comunicaciones académicas y jefa de cultura e evaluación de investigación e innovación en la Universidad de Loughborough, que no estuvo involucrada en su preparación. “Muchas organizaciones han hecho compromisos públicos con prácticas de investigación abierta pero continúan utilizando fuentes de datos bibliográficos cerradas y comerciales para análisis de investigación”. El anuncio debería “estimular a una gama más amplia de organizaciones a ‘poner su dinero donde está su boca’”.

Con ese fin, los partidarios de la declaración esperan establecer una Coalición para la Información de Investigación Abierta para planificar los próximos pasos, dice la coordinadora Bianca Kramer, experta en comunicaciones académicas de la consultora Sesame Open Science. “Queremos facilitar que las organizaciones trabajen hacia esa transición, entre otras cosas, beneficiándose de la experiencia de los demás y explorando la acción colectiva”.

COMPROMISOS


1 – Haremos que la apertura sea la norma para la información de investigación que utilizamos y producimos

  • La apertura será la norma para la información sobre investigación que utilizamos, por ejemplo, para evaluar a investigadores e instituciones, apoyar la toma de decisiones estratégicas y encontrar resultados de investigación relevantes.
  • La apertura será la norma para la información de investigación que produzcamos, por ejemplo, la información sobre nuestras actividades y resultados, con excepción de la información cuya apertura sería inapropiada (‘tan abierta como sea posible y tan
    cerrada como sea necesario’


2. – Trabajaremos con servicios y sistemas que apoyen y hagan posible
la información abierta sobre investigación

  • En cuanto a los servicios y plataformas de publicación, requeriremos que la información de investigación generada en los procesos de publicación (por ejemplo, metadatos de artículos de investigación y otros resultados) esté disponible de forma abierta a través de infraestructuras académicas abiertas, utilizando protocolos e identificadores estándar cuando estén disponibles.
  • En el caso de los sistemas y plataformas para la gestión interna de la información de investigación (por ejemplo, los actuales sistemas de información de investigación), requeriremos que toda la información de investigación pertinente pueda exportarse y hacerse abierta, utilizando protocolos e identificadores estándares cuando estén disponibles.


3. Apoyaremos la sostenibilidad de las infraestructuras para la información abierta sobre investigación

  • Asumimos la responsabilidad de apoyar infraestructuras para la información abierta sobre investigación, por ejemplo participando en la creación de comunidades y en la gobernanza de las mismas y aportando contribuciones justas y equitativas a la estabilidad financiera y al desarrollo de estas infraestructuras.
  • Esperamos que las infraestructuras que apoyamos apliquen buenas prácticas
    de gobernanza comunitaria y sostenibilidad (por ejemplo, los Principios de la
    Infraestructura Académica Abierta).


4. Apoyaremos actuaciones colectivas para acelerar la transición hacia la apertura de la información sobre investigación

  • Reconocemos la importancia de compartir experiencias y coordinar acciones para promover en todo el sistema la transición de cerrada a abierta de la información de investigación.
  • Para facilitarlo, apoyamos la creación de una Coalición para la Información
    Abierta sobre Investigación y el refuerzo de la colaboración con otras iniciativas y organizaciones afines.

Cobertura de Acceso Abierto de OpenAlex, Scopus y Web of Science

Simard, Marc-Andre, Isabel Basson, Madelaine Hare, Vincent Lariviere, y Philippe Mongeon. «The open access coverage of OpenAlex, Scopus and Web of Science». arXiv, 2 de abril de 2024. https://doi.org/10.48550/arXiv.2404.01985.

El estudio aborda la cobertura de revistas de acceso abierto (OA) en las bases de datos bibliográficas OpenAlex, Scopus y Web of Science. Se centra en las revistas de acceso abierto de tipo «diamante», que ofrecen un modelo de publicación gratuito tanto para autores como para lectores, pero que enfrentan desafíos debido a su falta de indexación en las principales bases de datos bibliográficas.

Los autores analizan la cobertura de revistas de acceso abierto diamante y oro en términos de autoría y cobertura de revistas en Web of Science y Scopus, considerando diversos aspectos como campo, país y idioma de publicación. Los resultados muestran una menor cobertura en Web of Science y Scopus para las revistas de acceso abierto diamante, así como una mayor concentración local en estas revistas. Además, se observa que las revistas de acceso abierto oro tienen una proporción considerablemente mayor de publicaciones exclusivamente en inglés.

Se destaca que los países de ingresos altos tienen la mayor proporción de autoría en todos los dominios y tipos de revistas, excepto en las revistas diamante de ciencias sociales y humanidades.

El estudio concluye que comprender el panorama actual de la indexación de revistas de acceso abierto diamante puede ayudar a avanzar en políticas y prácticas más inclusivas en los modelos de OA.

Clarivate anuncia cambios en la clasificación por categorías del factor de impacto de las revistas

Quaderi, Dr Nandita. «2024 Journal Citation Reports: Changes in Journal Impact Factor Category Rankings to Enhance Transparency and Inclusivity». Clarivate (blog), 16 de febrero de 2024. https://clarivate.com/blog/2024-journal-citation-reports-changes-in-journal-impact-factor-category-rankings-to-enhance-transparency-and-inclusivity/.

En la próxima versión del JCR, programada para junio de 2024, se producirán dos cambios cruciales en las clasificaciones de categorías del Factor de Impacto de la Revista (JIF). En primer lugar, se reemplazarán las clasificaciones de JIF específicas de la edición con clasificaciones unificadas para cada una de las 229 categorías de ciencias y ciencias sociales. Además, se eliminarán las clasificaciones separadas de JIF para las nueve categorías temáticas indexadas en múltiples ediciones, optando por una única clasificación unificada que abarque todas las ediciones pertinentes


En los últimos años, se han introducido una serie de cambios de políticas en el Journal Citation Reports (JCR)™ con el fin de alinear la cobertura entre la Web of Science Core Collection™ y el JCR, aumentar la transparencia de los datos subyacentes a las métricas del JCR y promover una comparación más inclusiva y completa de las revistas.

Entre los cambios recientes en el JCR se incluye la incorporación de páginas de perfil para las revistas indexadas en el Arts and Humanities Citation Index (AHCI)™ y Emerging Sources Citation Index (EHCI)™, así como la introducción del Journal Citation Indicator (JCI) en 2021. El JCI está normalizado por campo para facilitar la comparación de revistas en diversas disciplinas, incluidas las artes y humanidades. Además, se ha extendido el alcance del Factor de Impacto de la Revista (JIF)™ a las revistas AHCI y ESCI en 2023, de modo que ahora abarca todas las revistas de calidad en la Web of Science Core Collection.

Con estos cambios, el JIF ha pasado de ser simplemente un indicador del impacto académico (representado por su valor numérico) en las ciencias y ciencias sociales, a convertirse en un indicador que denota tanto el impacto académico como la fiabilidad (al tener un JIF, independientemente de su valor) en todas las disciplinas a nivel de revista.

En 2023, también se modificó la forma en que se muestra el JIF, reduciendo los lugares decimales de tres a uno. Este cambio es significativo ya que ha generado más empates en las clasificaciones del JIF, fomentando así la consideración de indicadores adicionales y factores descriptivos junto con el JIF al comparar revistas.

El compromiso de mejorar la transparencia y la confianza continúa en la próxima versión del JCR que se publicará en junio de 2024. Dos cambios importantes, anunciados el año pasado, se implementarán en las clasificaciones de categorías del JIF.

  • Se pasará de las clasificaciones de JIF específicas de la edición a clasificaciones unificadas para cada una de nuestras 229 categorías de ciencias y ciencias sociales.
  • Además, ya no se proporcionarán clasificaciones de JIF separadas para las nueve categorías temáticas que están indexadas en múltiples ediciones. Por ejemplo, la categoría de Psiquiatría está incluida tanto en el Science Citation Index – Expanded (SCIE)™ como en el Social Sciences Citation Index (SSCI)™ y actualmente se publica una clasificación separada de Psiquiatría para cada edición. Estas clasificaciones separadas serán reemplazadas por una única clasificación unificada.

Asimismo, las nuevas clasificaciones unificadas incluirán revistas indexadas en ESCI. Utilizando nuevamente el ejemplo de Psiquiatría, se mostrará una única clasificación que incluirá revistas indexadas en SCIE, SSCI y ESCI.

ScienceOpen implanta los distintivos Scite Smart Citation para indicar si esas citas son de apoyo, de contraste o sólo menciones.

ScienceOpen

https://www.scienceopen.com/

scite.ai

https://scite.ai/

ScienceOpen y Scite.ai han anunciado una colaboración para brindar mayor contexto a la información de citas en el entorno académico. Esta colaboración implica la incorporación de insignias Scite en el índice de citas de ScienceOpen. Estas insignias indicarán si las citas son de apoyo, de contraste o simplemente menciones, lo que enriquecerá la comprensión de las referencias académicas.

ScienceOpen, fundada en 2013, es una red de investigación y publicación de libre acceso que ofrece búsqueda y descubrimiento en actualmente más de 88 millones de registros de artículos, libros, capítulos y actas de congresos. Desde redes de citas, revisión por pares abierta, métricas alternativas y más, ScienceOpen se ha comprometido a crear y exponer el contexto de la investigación académica desde su creación.

En estos días ScienceOpen y Scite.ai anuncia una nueva cooperación para proporcionar un mayor contexto en torno a la información de citas para la comunidad académica. El índice de citas en el núcleo del entorno de descubrimiento de ScienceOpen se ha aumentado con insignias Scite que indican si esas citas son de apoyo, de contraste o sólo menciones.

La galardonada plataforma Scite permite a los investigadores profundizar en los datos de citas para evaluar los artículos científicos. Scite se ha desarrollado analizando más de 35 millones de artículos científicos a texto completo y actualmente cuenta con una base de datos de más de 1.300 millones de citas clasificadas.

Stephanie Dawson, Directora General de ScienceOpen, afirma: «Un investigador en ScienceOpen puede clasificar sus resultados de búsqueda por número de cita. Estamos especialmente entusiasmados con esta nueva cooperación con scite.ai porque proporcionará información más detallada sobre esas citas para conocer rápidamente el impacto de determinados resultados de investigación dentro de un campo concreto.»

Dimensions presenta la versión beta de un nuevo Asistente de IA

Dimensions presenta la versión beta de un nuevo Asistente de IA para mejorar la experiencia del usuario, en la que la comunidad investigadora desempeña un papel fundamental para garantizar que nuestra IA ofrezca lo que necesitan.

Dimensions proporciona una extensa base de datos de citas que permite a los investigadores rastrear y analizar las citas de sus trabajos académicos. Esta funcionalidad es fundamental para evaluar el impacto de las investigaciones y comprender cómo están siendo utilizadas y referenciadas por otros investigadores. La mayoría de sus servicios y productos son gratuitos y otros de pago. Un producto innovador en varios aspectos que pretende ser una alternativa a Elsevier y Clarivate.

Dimensions AI Assistant  utiliza capacidades avanzadas de inteligencia artificial (IA) para proporcionar a los usuarios resúmenes semánticamente ricos y resultados contextualizados, superando las búsquedas tradicionales basadas en palabras clave.

Para garantizar que Dimensions AI Assistant satisface las necesidades de su público objetivo, está invitando a un número limitado de usuarios beta de todo el mundo a participar activamente en la configuración de la forma en que la IA ayudará a los usuarios de Dimensions en el futuro. Estos usuarios pertenecerán a diversos sectores, como el académico, las empresas, las editoriales, las agencias gubernamentales y las organizaciones de financiación, que representan la base de clientes clave de Digital Science.

El principal objetivo del lanzamiento de la versión beta cerrada de Dimensions AI Assistant es recabar valiosos comentarios de usuarios beta que representen a diversos segmentos, como académicos, entidades corporativas, editores, agencias gubernamentales y organizaciones de financiación. Este enfoque garantiza que las necesidades e interacciones de los usuarios reciban la máxima importancia a medida que se desarrollan las funciones de la aplicación. «Al dar prioridad al lanzamiento de la versión beta como paso esencial, pretendemos perfeccionar el producto y asegurarnos de que se ajusta a las expectativas y requisitos de su público objetivo», afirma Christian Bode, Jefe de Producto de Dimensions.

La fórmula de CiteScore de Elsevier cambió sustancialmente en 2021. Ventana de citación de 4 años

Elsevier revisó totalmente la fórmula de Citescore. Un cambio relativamente menor que hicieron fue endurecer los tipos de documentos que podían usarse en el numerador y el denominador, antes era cualquier tipo pero ahora se restringe sólo a los siguientes tipos de publicación: artículos, revisiones, documentos de conferencias, documentos de datos y capítulos de libros.

Pero el mayor cambio ha sido este. No sólo se ha abierto la ventana de citas a 4 (en lugar de 3 años), sino que ahora también cuentan las citas de 4 años (no de 1). En otras palabras, para obtener el citescore de 2021, se cuentan todas las citas de los documentos publicados en 2018-2021.

Además, Clarivate, recientemente en 2021, aumentó la confusión al publicar otra métrica de revistas: Journal Citation Indicator (JCI), también utiliza efectivamente 4 años de citas.

El recuento de citas refuerza la influencia de los artículos muy citados y nos empuja a infravalorar los menos citados.

Duede, Eamon. «Citation Counts Reinforce the Influence of Highly Cited Papers and Nudge Us towards Undervaluing Those with FewerImpact of Social Sciences, 17 de febrero de 2022

Ver original

En el contexto de la evaluación diaria de la investigación, el recuento de citas suele tomarse como un simple indicador de la influencia de un artículo concreto. Sin embargo, no todas las citas son iguales y pueden utilizarse para lograr distintos fines. Eamon Duede comenta un estudio reciente sobre la forma en que los investigadores de 15 campos académicos entienden la influencia de los trabajos citados en sus investigaciones y muestra cómo las citas desempeñan un papel tanto en la indicación como en la configuración de la influencia de los trabajos de investigación.

Las repercusiones de la ciencia y la erudición son tan polifacéticas como omnipresentes. Los resultados de la investigación dan forma a la política a través de pruebas y predicciones de principios, perfeccionan nuestro estilo de vida con nuevas tecnologías, fuentes de energía y entretenimiento, y mejoran nuestra salud y bienestar a través de los avances en la medicina, la práctica clínica y la educación.

El impacto de la investigación surge, por supuesto, de la investigación. Aunque la investigación varía mucho en cuanto a la amplitud y la magnitud de su influencia en nuestras necesidades, deseos y gobierno, también sirve para influir en nuestro conocimiento y comprensión, en nuestras futuras investigaciones, en nuestra propia curiosidad. Tanto es así que a menudo se da por sentado.

En muchos sentidos, los trabajos de investigación son depósitos de conocimientos potencialmente impactantes, cada uno de los cuales se apoya, conecta, desafía o reconoce a los demás. Y uno de los principales medios por los que estas diversas actividades se registran en el libro de contabilidad del progreso científico es a través de la práctica de la citación.

Como resultado, se ha convertido en algo común y no del todo descabellado creer que el número de veces que se ha citado un trabajo es una medida directa de lo influyente que ha sido. Si un trabajo ha sido citado significativamente más veces que sus pares en el campo, entonces, con toda probabilidad, ese trabajo ha sido más influyente que los demás. Por ello, no es de extrañar que los científicos, los gestores, los organismos de financiación y los comités de premios utilicen el recuento de citas como una de las principales formas de evaluar la influencia a la hora de tomar decisiones.

Sin embargo, en un reciente artículo, Misha Teplitskiy, Michael Menietti, Karim R. Lakhani y el propio autor, se descubre que, en la mayoría de los casos, la creencia común y razonable de que las citas explican la influencia es falsa.

Para demostrarlo, se realizó una encuesta minuciosa y muy personalizada entre casi 10.000 autores de artículos científicos recientes. Esta encuesta fue notable porque, en lugar de inferir, se preguntó directamente a los autores sobre los artículos específicos que citaban en sus trabajos recientes. En particular, interesaba comparar la percepción de estos autores sobre la calidad de los artículos que habían leído y referenciado con el número de veces que esos artículos habían sido citados. Además, se pidó a los autores que informaran del grado en que esas referencias habían influido en sus propios trabajos.

En contra de la idea de que las citas son un reflejo directo de la influencia académica, descubrimos que, en las 15 áreas académicas representadas en la muestra de aproximadamente 17.000 referencias de artículos, más de la mitad de los mismos no habían tenido ninguna o muy poca influencia en los autores que los citaban (véase la figura 1).

Sin embargo, muchos artículos sí ejercen una influencia significativa en quienes los leen y citan. Existen dos hipótesis comunes y contradictorias sobre qué artículos son realmente influyentes. Según una de ellas, la mayoría de las citas de los artículos denotan, hasta cierto punto, un contexto relativo, influencia sobre sus lectores. Sin embargo, a medida que los artículos son más citados, los autores dejan de leerlos con atención y tienden a citarlos por los beneficios retóricos y argumentativos que aportan a los propios trabajos de los autores. Por otro lado, la hipótesis contraria afirma que, a medida que los artículos se vuelven más citados, su estatus de citación indica a los lectores potenciales que esos trabajos son de mayor calidad. Esto, a su vez, lleva a los autores a invertir más tiempo y esfuerzo cognitivo en su lectura. Como resultado de esa inversión, es más probable que los lectores se vean influenciados.

Se observa que los artículos más citados son, de hecho, los más influyentes. La figura 2 muestra que, a medida que aumenta el número de veces que se cita un artículo, aumenta la probabilidad de que un artículo determinado haya influido significativamente en un lector que lo consulte. Sin embargo, los datos muestran que la probabilidad de una influencia significativa sólo aumenta en el caso de los artículos más citados (por ejemplo, los artículos con un número de citas de entre 100 y 1000). Pero, ¿se considera que estos artículos muy citados son de mayor calidad?

Estas conclusiones tienen enormes implicaciones para la forma de realizar y evaluar el impacto de la investigación. Descubrimos que la mayoría de los artículos de la muestra fueron descubiertos por sus lectores mediante búsquedas en bases de datos comunes. Estas búsquedas suelen mostrar el número de citas junto a los resultados. Sin embargo, nuestro estudio demuestra que esto afecta a cómo y qué elegimos leer. Como resultado, una cantidad significativa de trabajos potencialmente influyentes puede quedar sin leer por razones que no tienen nada que ver con su calidad. Como se señala en el artículo, aunque las citas son un mal indicador de la calidad de un artículo, los «perdedores» de las señales de estado de las citas superan en número a los «ganadores» en una proporción de 9 a 1 aproximadamente.

La nueva herramienta de perfiles de autor de Clarivate Analytics incluye la actividad de revisión por pares

Clarivate Analytics’s new author profiles tool to include peer review activity. Nature Index, 2022

Texto original

Clarivate Analytics, la empresa británica propietaria de la base de datos académica Web of Science (WoS), ha comenzado a generar automáticamente perfiles de autores, incluyendo información sobre la actividad de revisión por pares de los investigadores cuyos trabajos están indexados en la base de datos.

La información sobre la revisión por pares se integrará a partir de principios de 2022. Provendrá principalmente de Publons, un sitio web de uso gratuito que permite a los investigadores reclamar el crédito de la revisión por pares, que fue adquirido por Clarivate en 2017 y ahora tiene más de tres millones de usuarios.

La adición de la nueva función Publons convierte a la herramienta WoS en la primera que reúne detalles sobre los registros de publicación de los investigadores, sus colaboradores, los consejos de redacción de las revistas a las que pertenecen y otras actividades profesionales de investigación, como los manuscritos que han arbitrado para las revistas y las revisiones de subvenciones que han realizado. La herramienta también puede ser útil para los investigadores que realizan estudios de minería de textos.

Para encontrar artículos anteriormente, los usuarios de WoS realizaban una búsqueda de documentos en la base de datos de WoS, aunque desde 2019 también es posible una búsqueda de autores para encontrar autores individuales y sus actividades académicas. La herramienta es actualmente de uso gratuito, pero la empresa ofrecerá una versión con características adicionales de pago.

Los investigadores que utilicen la herramienta también podrán vincular sus perfiles a su identificador digital único, ORCID ID. De este modo, cuando un investigador añada un artículo a su perfil ORCID, se añadirá automáticamente a su perfil de autor de WoS, y viceversa

Según sus creadores, la herramienta de WoS está especialmente destinada a la evaluación de las solicitudes de financiación de los investigadores, así como a la evaluación de los académicos para su contratación y promoción. Ayudará a los evaluadores a detectar cualquier conflicto de intereses y les dará una visión más completa de las actividades académicas de un académico, señalan.

Dar visibilidad a la revisión por pares es un paso importante para solucionar su falta de reconocimiento como componente del rendimiento de la investigación, afirma Waltman. Reconoce que los informes de los árbitros son «importantes productos académicos que deben ser tratados de forma similar a otros tipos de publicaciones».

Clarivate propone un nuevo método para analizar el crédito que reciben los autores de los artículos académicos a través de las citas

Jonathan Adams, David Pendlebury and Ross Potter. Global Research Report Making it count: Research credit management in a collaborative world. Institute for Scientific Information (ISI)™, 20222

Texto completo

Clarivate ha publicado un nuevo informe del Institute for Scientific Information™ de la compañía que propone un nuevo método para analizar el crédito que reciben los autores de trabajos académicos a través de las citas.

Este informe propone un nuevo método para analizar el crédito de los trabajos académicos y sus citas. Es complementario complementario, y no contradictorio, del el análisis de las citas fraccionadas.

En todo el panorama de la investigación, la recepción de crédito a través de la citación de fuentes influye en la motivación y la reputación. El crédito por la publicación de investigaciones académicas suele afectar al empleo, la promoción y la financiación a nivel individual, así como a la financiación y la toma de decisiones de las instituciones de investigación académica y los países.

En un mundo cada vez más global y colaborativo, en el que aumenta rápidamente el número de artículos que nombran a docenas o incluso cientos de investigadores como autores, es esencial la necesidad de un análisis informado y basado en datos sobre el crédito que funcione en todas las disciplinas y regiones de la investigación. Sin embargo, los métodos existentes para analizar los créditos pueden verse distorsionados por recuentos de autores excepcionalmente elevados.

Hacer que cuente: La gestión de los créditos de investigación en un mundo colaborativo propone un nuevo indicador, el «Collab-CNCI» (Collab-CNCI) como una posible solución.

El informe no sólo confirma que los trabajos altamente colaborativos pueden distorsionar los resultados resumidos a nivel nacional e institucional, sino que también muestra cómo sucede. Destaca los aspectos clave de los logros y muestra dónde las instituciones generan un crédito académico significativo a partir de las citas de sus trabajos más nacionales.

Collab-CNCI complementa el ya existente indicador de impacto de citas normalizado por categorías creado por el CWTS de la Universidad de Leiden. Pero el recuento de citas acumulado para cada artículo se normaliza con respecto a otros artículos del mismo año de publicación, la misma categoría temática, el mismo tipo de documento y, fundamentalmente, el mismo tipo de colaboración.

Ludo Waltman, catedrático de Estudios Científicos Cuantitativos del Centro de Estudios Científicos y Tecnológicos (CWTS) de la Universidad de Leiden, ha declarado lo siguiente «El creciente nivel de colaboración en la ciencia mundial plantea cuestiones difíciles en relación con el diseño y la interpretación de los indicadores bibliométricos. Es absolutamente esencial desarrollar una mejor comprensión de la compleja interacción entre la colaboración científica y el impacto de las citas. Celebro la contribución del Instituto de Información Científica, que forma parte de Clarivate, para abordar esta difícil cuestión».

El Instituto de Información Científica invita a los usuarios y gestores de la investigación a comentar las ventajas relativas del Collab-CNCI en comparación y como complemento de otros métodos para permitir decisiones equilibradas y oportunas a nivel individual, institucional y nacional. Por favor, envíe sus comentarios a ISI@clarivate.com.