Archivo de la etiqueta: Evaluación

Web of Science ha suspendido temporalmente la indexación de la revista eLife debido a su modelo de publicación innovador que incluye revisión por pares pública

Brainard, Jeffrey. «Web of Science Index Puts eLife ‘On Hold’ Because of Its Radical Publishing ModelScience, October 24, 2024. https://www.science.org/content/article/web-science-index-puts-elife-hold-because-its-radical-publishing-model.

Web of Science ha suspendido la inclusión de la revista eLife debido a su nuevo modelo de publicación, que se implementó en enero de 2023. Este modelo incluye la revisión por pares pública sin una decisión final sobre la aceptación o rechazo de los manuscritos, lo que entra en conflicto con los estándares de calidad de Web of Science. Esta decisión podría comprometer el factor de impacto (IF) de eLife, un indicador controvertido que mide la calidad de una revista en función del promedio de citas a sus artículos.

La dirección de eLife expresó su decepción por la decisión de Clarivate, la empresa matriz del Web of Science, al considerar que frena los esfuerzos por mejorar la publicación y la revisión por pares utilizando principios de ciencia abierta. A pesar de que Clarivate no ha señalado artículos de eLife como de baja calidad, ha indicado preocupaciones sobre la falta de una decisión editorial basada en la validación de la revisión por pares.

eLife, una revista sin fines de lucro centrada en las ciencias biológicas, busca desafiar la dominancia del IF como medida de calidad y ha implementado su nuevo modelo como un experimento para combatir las ineficiencias del sistema de publicación científica, como los largos retrasos y la falta de transparencia. Este modelo exige a los autores una tarifa de 2500$ por artículo y permite que las revisiones, sean positivas o negativas, se publiquen junto con el manuscrito para su lectura gratuita.

Desde su implementación, el modelo ha generado un debate sobre la viabilidad financiera de eLife y su capacidad para atraer a científicos. Aunque el total de envíos disminuyó en un 25% en comparación con el mismo período del año anterior, más del 90% de los autores eligieron el nuevo modelo de publicación. La revista prevé anunciar pronto un nuevo informe sobre sus tendencias de crecimiento, que parecen prometedoras este año.

Clarivate ha suspendido recientemente otras revistas, como Science of the Total Environment de Elsevier, Cureus, y Heliyon, y eliminó 11 títulos en su última actualización, incluidos Multimedia Tools and Applications y Environmental Science and Pollution Research de Springer Nature, citando también problemas de calidad.

El número de artículos indexados ha aumentado un 47% mientras que el número de científicos no ha crecido

Mark A. Hanson, Pablo Gómez Barreiro, Paolo Crosetto, Dan Brockington; The strain on scientific publishing. Quantitative Science Studies 2024; doi: https://doi.org/10.1162/qss_a_00327

Se analiza el creciente volumen de publicaciones científicas, un fenómeno que ha generado una sobrecarga en la comunidad científica. Desde 2016, el número de artículos indexados ha aumentado aproximadamente un 47%, mientras que el número de científicos no ha crecido a la misma velocidad, lo que ha incrementado significativamente la carga de trabajo por investigador.



La publicación académica enfrenta un problema: el número de artículos revisados por pares ha crecido exponencialmente en los últimos años, mientras que el número de investigadores capacitados para evaluarlos no ha aumentado al mismo ritmo. Esto ha generado dificultades para encontrar revisores cualificados y ha sobrecargado a los científicos con la cantidad de artículos publicados. Parte de este crecimiento se debe a iniciativas inclusivas que fomentan la participación de investigadores de regiones como el Sur Global. Si bien estas iniciativas son positivas, el crecimiento excesivo amenaza con comprometer la rigurosidad científica.

Los autores presentan cinco métricas basadas en datos que muestran el crecimiento de las editoriales, los tiempos de procesamiento y las conductas de citación. Observan que algunas editoriales han impulsado este crecimiento mediante la publicación de «números especiales» con tiempos de revisión más cortos, lo que responde a la presión de «publicar o perecer» a la que se enfrentan los investigadores para obtener financiamiento. Además, han notado una inflación de los factores de impacto de las revistas, lo cual distorsiona las señales de calidad científica. Los autores concluyen que este crecimiento exponencial no es sostenible.

Algunos hallazgos importantes incluyen:

Inflación del factor de impacto: Se ha observado una inflación en el factor de impacto, particularmente en las revistas de MDPI y Hindawi, debido a una alta tasa de autocitación y citación entre revistas del mismo editor. MDPI muestra una tasa de autocitación significativamente mayor que otras editoriales, lo que ha contribuido al aumento de su factor de impacto.

Contribución desigual de las editoriales al crecimiento: Entre 2016 y 2022, MDPI, Elsevier, Frontiers, Springer y Wiley han sido responsables de más del 70% del aumento en la cantidad de artículos publicados. Mientras Elsevier y Springer distribuyen sus publicaciones a través de un gran número de revistas, MDPI y Frontiers concentran el aumento en un número más pequeño de revistas, resultando en una mayor cantidad de artículos por revista.

Aumento en el uso de «special issues»: Editoriales como Hindawi, Frontiers y MDPI han incrementado drásticamente la proporción de artículos publicados a través de «special issues» desde 2016. Este modelo ha generado preocupación por la posibilidad de que se priorice la cantidad sobre la calidad, ya que los artículos en estas ediciones suelen ser revisados por editores invitados, en lugar del cuerpo editorial regular.

Disminución en los tiempos de procesamiento: MDPI, Frontiers y Hindawi han reducido significativamente los tiempos de procesamiento de artículos, con MDPI registrando tiempos mucho menores en comparación con otros editores (37 días en promedio). Además, estos editores han mostrado una homogeneización en los tiempos de revisión, lo que podría indicar una revisión menos rigurosa.

Tasas de rechazo dependientes del editor: Los datos sugieren que las tasas de rechazo varían significativamente según el editor, sin una correlación clara con el crecimiento en el número de artículos o el tamaño de las revistas. En particular, MDPI ha mostrado una disminución en sus tasas de rechazo a medida que ha aumentado el uso de «special issues».

Los espacios físicos son los servicios de biblioteca más valorados por los estudiantes

Edward Harold Stocking, Rosalind Bucy, y Carlos Ramirez-Reyes, «First-gen and the library: a survey of student perceptions of academic library services», Performance Measurement and Metrics ahead-of-print, n.o ahead-of-print (1 de enero de 2024), https://doi.org/10.1108/PMM-11-2023-0037.

El estudio «First-gen and the library: a survey of student perceptions of academic library services» reveló diferencias significativas entre las percepciones de los estudiantes de primera generación (FGCS) y sus compañeros no pertenecientes a este grupo con respecto a la importancia y satisfacción con los servicios bibliotecarios.

En primer lugar, se identificaron diferencias estadísticas significativas en el 35% de los servicios bibliotecarios evaluados. Los estudiantes de primera generación otorgaron una mayor importancia y expresaron mayor satisfacción con estos servicios en comparación con los estudiantes no de primera generación.

Los FGCS consideraron como más relevantes los servicios relacionados con los espacios físicos de la biblioteca, así como aquellos vinculados al acceso y descubrimiento de recursos. Estos aspectos fueron percibidos como esenciales para su experiencia académica.

Además, los servicios que brindan apoyo directo a los estudiantes, como las consultas con bibliotecarios, y los servicios que ofrecen acceso a tecnología, mostraron las diferencias más notables entre ambos grupos de estudiantes. Los FGCS valoraron más estos aspectos, lo que refleja sus necesidades y expectativas específicas.

Código de buenas prácticas en materia de datos de investigación de COUNTER

Code of Practice Release 5.1. COUNTER, 2024

Ver código

El Código de Prácticas para Datos de Investigación, desarrollado en colaboración con Make Data Count, marca un hito en las prácticas de evaluación de datos al permitir la generación de informes comparables sobre el uso de datos a través de plataformas. En mayo, se informó que Make Data Count y COUNTER están explorando el futuro del Código, y en los próximos meses se trabajará en su integración con la Versión 5.1 del Código de Prácticas de COUNTER.

Manifiesto por las métricas socioterritoriales de la ciencia la tecnología y la innovación

Cancino, Ronald and Albis Salas, Nadia and Villarroel Valenzuela, Jacqueline and Robles Belmont, Eduardo and Oliveira [et al.] Manifiesto por las métricas socioterritoriales de la ciencia la tecnología y la innovación 2024

Ver

La ciencia, la tecnología y la innovación han devenido en un verdadero motor de transformaciones de toda índole en escalas locales y globales. Sin embargo, las capacidades desigualmente distribuidas a nivel mundial han generado desarrollos desproporcionales en estas distribuciones. No es tan solo un problema de la ciencia en sí, sino del modo en cómo se han desarrollado las sociedades, las relaciones entre ellas, y el rol que han jugado la ciencia y la tecnología en la dinámica y el desarrollo de las sociedades. Hoy, a los problemas de asimetrías, desigualdad, exclusión y marginalidad, se suman pandemias, migraciones forzadas, extractivismo y los efectos visibles de la autonomización del cambio climático como generador de transformaciones y desastres locales y globales en los que la ciencia y la tecnología juegan un rol central en su comprensión, mitigación, prevención y solución. De este modo, el desarrollo de capacidades y el conocimiento sobre su distribución local y global son fundamentales para una actuación en el mundo contemporáneo. En este contexto, una verdadera transformación en la ciencia parece experimentarse. La conformación de redes, la demanda por impactos, la investigación mediante y en mundos virtuales y simulados, junto al creciente movimiento por el acceso y la ciencia abierta y ciudadana, son acompañados por permanentes ajustes y rediseños institucionales, actualizaciones de políticas, nuevas prioridades, instrumentos y una tendencia creciente a alinearse, por ejemplo, a los Objetivos de Desarrollo Sostenible. En este contexto, los esfuerzos para conocer, comprender y gestionar las capacidades de ciencia, tecnología e innovación, mediante métricas y formas de evaluación científica, continúan centrados en formas tradicionales y en métricas de impacto de citaciones articuladas a formas de evaluación, financiación y gasto en sistemas de publicaciones transnacionales. Los movimientos locales, nacionales y globales por la apertura de la ciencia y su evaluación son cada vez más activos, y permean de manera muy incipiente las políticas de ciencia, tecnología e innovación. Proponemos que, en estos esfuerzos, debemos incorporar un conjunto de principios que permitan construir métricas para la medición de capacidades y formas de evaluación que consideren las características, requerimientos y demandas socioterritoriales respecto de las cuales actúan y se desarrollan capacidades científicas y tecnológicas.

Los científicos que dedican tiempo a revisar manuscritos no reciben recompensas por sus esfuerzos. Es hora de cambiar eso.

Magazine, Undark. «The Misplaced Incentives in Academic Publishing». Undark Magazine, 4 de julio de 2024. https://undark.org/2024/07/04/opinion-misplaced-incentives-academic-publishing/.

Las lamentaciones sobre los modelos actuales de publicación académica provienen de todos los rincones de la comunidad científica. ¿Cómo funciona el sistema? El científico redacta los resultados de su estudio en forma de artículo. Ese artículo es revisado por «pares» (normalmente otros científicos) para una revista. Con pocas excepciones, esta es la ruta necesaria para publicar trabajos en el ecosistema profesional de la ciencia.

Los argumentos en contra son muchos, pero tienden a centrarse en características dudosas de la revisión por pares y el modelo de negocio de las revistas que publican informes revisados por pares sobre nuevas investigaciones. Las revistas cobran a las instituciones por suscripciones, y a menudo los investigadores individuales pagan hasta miles de dólares por artículo para su publicación. Todo esto mientras las revistas utilizan mano de obra gratuita o de bajo costo de editores y revisores. La hipocresía relacionada es que estas revistas se benefician de investigaciones pagadas por los contribuyentes, financiadas a través de organismos federales como la National Science Foundation y los National Institutes of Health.

A pesar de que el público financia gran parte de este trabajo, la mayor parte permanece tras un muro de pago, accesible gratuitamente solo para aquellos afiliados a instituciones que pueden pagar suscripciones (y los raros individuos que pueden pagar por sí mismos), eliminando así a la mayoría del público de la ciencia ciudadana. Muchas de las revistas que ofrecen artículos de «acceso abierto» lo hacen cobrando una tarifa exorbitante a los investigadores para publicar.

Pero por condenables que sean estos cargos, solo capturan un aspecto de la hipocresía y la irracionalidad en el modelo de publicación académica. Esto ha llevado a concluir que muchos de los mayores pecados, no apreciados, de la publicación no surgen de las revistas en sí, sino del ecosistema profesional que define la academia moderna. La estructura de incentivos fomenta un comportamiento que refuerza el modelo de publicación actual, que está roto.

El sistema actual recompensa la productividad individual mucho más que las contribuciones al sistema que fomenta la productividad. Es decir, la ciencia académica ha creado un desajuste entre los deseos y necesidades de los científicos individuales y el esfuerzo necesario para mantener una empresa científica sostenible, donde los comentarios de sus pares son necesarios.

Los científicos más experimentados suelen aconsejar dejar de lado la revisión de manuscritos o el servicio como editor de una revista y en su lugar centrarse en la propia producción. Este es un excelente consejo para un proceso pervertido: la revisión por pares de calidad es lo que da confianza en que la investigación que se lee en las revistas es de alta calidad. Pero la centralidad de la revisión por pares se basa en la suposición de que las personas evaluarán cuidadosamente el trabajo de otros por buena voluntad, o que los autores reconocerán las horas de trabajo que requieren las publicaciones de los revisores devolviendo el favor.

Seguramente, la participación de los científicos en el proceso puede ayudar a su propia productividad: los académicos construyen relaciones con los editores de revistas en las que podrían publicar sus propios manuscritos, y leer y revisar manuscritos les expone a nuevos trabajos. Pero en el mejor de los casos, estos beneficios son indirectos. Hablando claramente, prácticamente nadie en la historia de la ciencia profesional ha sido promovido o recompensado significativamente por proporcionar revisiones estelares del trabajo de otros. Aquellos que pasan horas mejorando el trabajo de sus pares a menudo lo hacen como un favor (o más bien, como una «donación»).

El sistema actual recompensa la productividad individual mucho más que las contribuciones al sistema que fomenta la productividad.

No es necesario estar versado en teoría de juegos evolutiva para reconocer cómo este sistema selecciona el comportamiento egoísta: las perspectivas de carrera de un científico son mucho mejores si decide solo producir manuscritos, en lugar de participar en su evaluación. El problema aquí puede describirse en términos termodinámicos: para que el sistema funcione responsablemente, la energía invertida debería ser aproximadamente igual a la energía que se obtiene. Muchos manuscritos publicados de impacto fueron producto del trabajo de dos o tres (o más) revisores. La única forma de agregar balance energético sería que cada investigador revisara dos o tres manuscritos por cada uno que publican como autor principal o corresponsal (uno de los que lideraron el esfuerzo de investigación). Desafortunadamente, los propios intereses de los científicos tienen prioridad.

Impresionantemente, el incentivo al egoísmo funciona tanto para científicos junior como senior. Los científicos junior deben centrarse en sí mismos porque la productividad es la clave para el ascenso profesional. Para los científicos senior, no hay razón para participar porque su (a menudo bien ganada) seguridad laboral elimina prácticamente cualquier consecuencia de no participar. Debido a la falta de incentivos, incluso las revistas de alto impacto pueden tener dificultades para encontrar revisores capacitados para los manuscritos enviados.

Los asociados postdoctorales y los estudiantes de posgrado pueden y deben participar formalmente en la revisión por pares porque muchos están calificados para hacerlo, y porque evaluar manuscritos es un excelente ejercicio de formación para el científico en desarrollo. Pero la motivación para incluir a los aprendices en la revisión por pares no es un nuevo deseo de formar a los científicos junior en todos los aspectos de la ciencia. Más bien, se necesita incluirlos porque se está quedando sin voluntarios más experimentados, y se debe encontrar la mano de obra donde pueda encontrarse.

La crisis de revisores tiene otros efectos perniciosos. Si todos los que son autores principales de un manuscrito que es revisado no devuelven el esfuerzo, entonces las matemáticas resultantes no cuadran tan bien: menos personas revisan manuscritos que las que los escriben. ¿El problema aquí? Las mentes que revisan nuevos trabajos deberían idealmente ser tan diversas en perspectiva como los autores que generan el trabajo. Este no es un problema de equilibrio, sino uno relacionado con la innovación: las diferentes perspectivas están mejor equipadas para apreciar la vasta gama de ciencia que se está llevando a cabo en todo el mundo.

Sin una gran y diversa base de revisores, un número relativamente pequeño de individuos moldea el trabajo que termina en las revistas. Incluso si esta pequeña fracción de súper-revisores son personas honestas y confiables, sus sesgos, metodológicos o de otro tipo, seguramente sesgarán los tipos de investigación que terminan en las páginas de nuestras revistas favoritas.

Al final, señalar estos defectos podría ser poco más que otra contribución al popular universo de quejas académicas. Se pueden identificar cosas del sistema que no gustan, que socavan la calidad, la originalidad y la inclusividad. Y algunos de estos elementos son legítimamente difíciles de cambiar.

Las mentes que revisan nuevos trabajos deberían idealmente ser tan diversas en perspectiva como los autores que generan el trabajo.

Sin embargo, la publicación académica es diferente de muchos otros rincones defectuosos de la ciencia profesional. Y algunas de las soluciones se pueden lograr con actividades relativamente de bajo esfuerzo. El pago por la revisión es una solución propuesta popular. Pero otras pueden lograrse sin consideraciones financieras. Por ejemplo, los decanos de ciencia en instituciones de élite podrían reunirse mañana (vía Zoom) y decidir una forma formal de incentivar fuertemente la participación en todos los aspectos del proceso de publicación. Podrían reconocer una verdad no reconocida: el científico que evalúa manuscritos regularmente, reanaliza datos y proporciona comentarios reflexivos y extensos es tanto un protector y promotor de la ciencia original como el que publica exclusivamente manuscritos por su cuenta. Estas son áreas factibles donde el liderazgo puede cambiar la conversación en relativamente poco tiempo. Por supuesto, existen grandes barreras para que algo de este tipo se ponga en práctica.

Al final, los intentos de racionalizar el sistema existente con argumentos como «Esto es lo que todos los demás están haciendo y lo que se ha hecho en el pasado» no pueden ser defendidos por ningún tipo de pensamiento maduro. Los caminos hacia muchos tipos de infierno están pavimentados con «Solo trabajo aquí».

Es necesario ser empático. Cambiar las cosas requiere tiempo y energía. Los sistemas que sustentan la publicación académica son subproductos de decisiones y no decisiones de personas ostensiblemente inteligentes que son hábiles en revelar las maravillas del mundo natural. Es hora de que dirijan su ingenio hacia adentro, hacia la creación de un nuevo sistema que recompense activamente a todos los que mantienen viva la ciencia.

Las altmetrics en tiempos de la IA


Stuart, David. Have we reached the limits of altmetrics? | Research Information. (2024.). Recuperado 29 de junio de 2024,

Ver original



Las altmetrics han crecido en popularidad, pero la IA amenaza su legitimidad al facilitar la manipulación de métricas. A medida que la creación de contenido automatizado aumenta, la relevancia y precisión de las altmetrics se debilitan. Las métricas web deberán adaptarse para seguir siendo útiles en el futuro.

Es fascinante observar el crecimiento de las altmetrics y otras métricas web en los últimos 20 años. Han pasado de ser una curiosidad a estar integradas en las páginas web de las universidades y editoriales académicas más grandes del mundo. Los desarrollos tecnológicos, la estandarización y el creciente interés en métricas alternativas han llevado a que la información sobre el número de vistas o menciones en redes sociales de una publicación se destaque junto a otras métricas más establecidas.

Sin embargo, el éxito pasado no garantiza el crecimiento futuro, y la web está en constante cambio. El mayor disruptor de la web hoy en día es indudablemente la inteligencia artificial (IA), y aunque el impacto futuro completo de la IA es actualmente desconocido, surge la pregunta de si hemos llegado a los límites de las altmetrics.

En un mundo que cambia rápidamente, las métricas apelan a la objetividad. Ya sea que se utilicen para evaluación, motivación o celebración, ofrecen la promesa de algo más sólido que una simple opinión individual. Durante mucho tiempo, en la publicación académica, las métricas dominantes se basaron en citas. A pesar de que se reconocen las limitaciones del análisis de citas, se siente que al agregar y normalizar citas de diferentes maneras, se puede indicar algo de valor.

El cambio a la publicación en línea aumentó considerablemente las métricas disponibles. La rica variedad de datos en tiempo real sobre el uso de una publicación y el surgimiento de altmetrics de las redes sociales prometieron proporcionar una comprensión más rápida y matizada del impacto de la investigación, más allá del ámbito académico y de las publicaciones formales. Sin embargo, las publicaciones informales son más susceptibles a la manipulación que las formales, y parece que justo cuando las altmetrics comienzan a ganar mayor aceptación, su legitimidad podría verse socavada. Hasta ahora, los problemas de manipulación han sido mínimos, pero con la IA, existe el riesgo de que estas métricas informales se vuelvan rápidamente insignificantes.

La IA incrementa tanto el riesgo de manipulación deliberada de métricas como el ruido general en el sistema de publicaciones académicas. Todas las métricas están abiertas a la manipulación, y es inevitable que individuos y organizaciones actúen de manera que logren la impresión más favorable. Como establece la ley económica de Goodhart: “Cuando una medida se convierte en un objetivo, deja de ser una buena medida”. Aunque las consecuencias negativas de las métricas en la publicación académica pueden no ser tan evidentes como cuando un médico solo quiere atender a pacientes con resultados favorables, o la policía solo registra delitos que son fáciles de resolver, el énfasis excesivo en las métricas corre el riesgo de socavar el sistema. El problema de las fábricas de artículos de investigación, que producen artículos que luego son retractados, ha crecido recientemente, y es probable que el problema aumente a medida que las mejoras en la IA generativa hagan cada vez más difícil identificar dichos artículos. En la publicación académica, sin embargo, todavía hay muchos controles humanos, pocos de los cuales se aplican a las altmetrics.

La historia de las métricas web ha sido tanto de la creciente facilidad con la que se pueden recopilar como de la facilidad con la que se pueden manipular. Hace casi 20 años, la unidad de elección para contar era el hipervínculo. Aunque cualquiera podría haber creado múltiples sitios web con diferentes dominios para aumentar el impacto de su presencia en línea, el costo en tiempo y dinero, y el poco interés en las métricas web en la comunidad académica, significaba que la mayoría de las personas preferían dedicar su tiempo a crear mejores publicaciones académicas. La estandarización de los grandes sitios de redes sociales, sin embargo, proporcionó tanto mayor interés en las métricas web como una menor barrera para crear un impacto en línea. Ya no era necesario crear múltiples sitios web, solo diferentes perfiles en múltiples plataformas de redes sociales. El costo, en su mayoría, se había reducido a cero, todo lo que se necesitaba era tiempo. Con la IA, sin embargo, el tiempo involucrado también puede reducirse a cero, al menos después de la configuración inicial.

No es difícil imaginar un futuro cercano en el que, si se desea generar cientos o incluso miles de cuentas de microblogging para elogiar la calidad de una investigación, simplemente se puede pedir a un programa de IA generativa que lo haga. No será necesario curar cuidadosamente la imagen de cada cuenta para distinguirlas de los spambots, ya que el contenido se generará automáticamente. Puede resultar un poco molesto descubrir que los insights artificiales ganan más seguidores que los posts cuidadosamente curados, pero el rápido aumento de la puntuación de atención sin duda aliviará el dolor.

No todo el ruido será deliberado. A medida que el contenido se crea automáticamente, la idea de que las piezas de contenido pueden contarse como si cada una hubiera sido creada por un ser humano se volverá cada vez más defectuosa. Proporciones crecientes de la web ya vienen con una advertencia de que «esta página ha sido creada automáticamente con la ayuda de IA», y estas secciones inevitablemente crecerán más rápido que las creadas por humanos. A medida que la creación de contenido se basa cada vez más en otro contenido que ya ha sido creado, la ventaja de ser el primer artículo mencionado sobre un tema será cada vez más difícil de superar.

Con una distribución de atención cada vez más sesgada, también se vuelve cada vez más importante asegurarse de que las menciones se asocien con el documento académico correcto. La mala atribución de menciones académicas y las fluctuaciones resultantes en las métricas solo aumentarán a medida que se genere más contenido automáticamente.

A primera vista, parecería que el uso creciente de la IA generativa inevitablemente anunciará el fin de las altmetrics, pero eso solo si todo lo demás permanece igual. Sin duda, no será así. Los sitios y servicios de redes sociales también cambiarán de muchas maneras. Es posible que los sitios de redes sociales gratuitos sean reemplazados por servicios de suscripción o distribuidos, donde haya mayores restricciones en la generación de contenido, permitiendo que formen la base de nuevas y más robustas métricas. El interés en el impacto académico en un servicio genérico como X podría ser reemplazado por el interés en cuentas verificadas o en servidores seleccionados que formen parte de una red distribuida.

También parece probable que se amplíe el interés en las métricas web más allá de las altmetrics. Se puede obtener una amplia gama de insights de la web, o de rincones de la misma, desde el análisis de las actividades de búsqueda de las personas en Google Trends para conocer el estado de la sociedad hasta cómo el enlace entre sitios web proporciona información sobre las relaciones en el mundo real y la robustez de una economía local. Sin embargo, estas alternativas a menudo han sido marginadas con un enfoque en las métricas evaluativas a gran escala.

Las métricas web siempre han tenido que adaptarse a medida que surgían nuevas tecnologías. Aunque la IA indudablemente marcará el fin de una era de las altmetrics, surgirán nuevas áreas de investigación. La inclusión de literatura gris y citas de patentes que anteriormente se habrían excluido de la bibliometría probablemente continuará, pero la idea de capturar contenido informal a gran escala puede ser cada vez más dudosa.

Las métricas web siempre han tenido fundamentos más suaves que las bibliométricas, más propensas a ofrecer insights interesantes que autoritativos, y no es necesariamente malo que eso sea hasta donde lleguen. Las métricas evaluativas a menudo tienen un impacto negativo, especialmente cuando se les da demasiada credibilidad, por lo que limitar las altmetrics justo cuando están ganando interés no es necesariamente algo negativo.

Publicación de CiteScore 2023 (2024)

«CiteScore 2023: A comprehensive, clear and current metric for journal impact | Elsevier Scopus Blog». Accedido 13 de junio de 2024. https://blog.scopus.com/posts/citescore-2023-a-comprehensive-clear-and-current-metric-for-journal-impact.

Scopus anuncia el próximo lanzamiento de CiteScore 2023, una métrica que proporciona información sobre el impacto de las citas de las revistas.

Desarrollado por el equipo del International Center for the Study of Research (ICSR), CiteScore ofrece una evaluación equilibrada y completa de las contribuciones basadas en la investigación de una revista. CiteScore permite a investigadores, bibliotecarios, editores y oficinas de investigación tomar decisiones bien informadas sobre dónde publicar y estrategias de publicación.

Aspectos destacados del lanzamiento de CiteScore 2023:

  1. Cobertura ampliada: CiteScore 2023 incluye 29.777 títulos activos, con 2.212 títulos recibiendo su primer CiteScore. Esta cobertura más amplia asegura un conjunto de datos más completo para evaluar el impacto de las revistas.
  2. Más títulos de acceso abierto: El lanzamiento incluye 6.943 títulos de acceso abierto, con 52 de ellos clasificándose como número 1 en sus respectivas categorías, destacando la creciente importancia de la investigación de acceso abierto.
  3. Diversas categorías temáticas: CiteScore cubre 334 categorías temáticas, con Historia siendo el área más grande, comprendiendo 1.760 títulos. Esta diversidad permite a los usuarios explorar el impacto en varios campos.
  4. Títulos de alto impacto: CiteScore 2023 identifica 11.144 títulos con CiteScore pero sin Factor de Impacto en 2022. Entre ellos, 416 títulos están altamente clasificados en sus respectivas áreas, ubicándolos en el top 10%.
  5. Representación global: El 22% de las revistas CiteScore son publicaciones no en inglés en más de 50 idiomas, proporcionando una perspectiva global sobre el impacto de la investigación.
  6. Impacto creciente: 668 títulos experimentaron un aumento de CiteScore del 100% o más entre 2022 y 2023, mostrando la naturaleza dinámica del impacto de la investigación.

La metodología de CiteScore refleja el impacto de citación de las contribuciones basadas en la investigación de una revista con mayor estabilidad, consistencia en los períodos de tiempo utilizados, y permanece integral, actual, clara y gratuita. Fue desarrollada por el equipo del ICSR (International Center for the Study of Research), basado en una investigación de mercado extensa y según Scopus aprovecha las debilidades inherentes del JIF como métrica de citación a nivel de revista.

Los usuarios están cada vez más frustrados con la calidad de búsqueda de Google

ReShare, Author Project. «News Release: Project ReShare Launches ReShare Digital Software Development Initiative and Pledge Drive», 5 de junio de 2024. https://projectreshare.org/2024/06/05/news-release-reshare-digital/.

Los motores de búsqueda están destinados a ayudar a las personas a encontrar la información que desean o necesitan. Esta encuesta indica que los resultados y experiencias deficientes en los motores de búsqueda pueden estar fallando en ayudar a los usuarios a cumplir sus tareas, lo que los frustra.

Se preguntó a los encuestados cuál era la parte más frustrante del proceso de búsqueda de servicios en línea. Los tres principales fueron:

  1. Buscar entre los resultados de búsqueda: 26%
  2. Encontrar el término de búsqueda correcto: 22%
  3. Visitar múltiples sitios web: 21%

Estos son problemas que los resúmenes de inteligencia artificial de Google, ChatGPT y otros motores de respuestas podrán resolver algún día (¿pronto?). Sin embargo, la promesa completa de la inteligencia artificial generativa en la búsqueda aún no se ha realizado.

La mayoría de los encuestados dijeron que buscan más resultados de búsqueda en comparación con hace cinco años:

Más: 54% (19% «mucho más»; 35% «un poco más»). Menos: 27% (19% «un poco menos»; 8% «mucho menos»). Igual: 20%.

Una mayoría de los encuestados también dijo que pasa más tiempo buscando cuando busca servicios en línea:

Más tiempo: 51% (16% «mucho más»; 35% «un poco más»). Menos tiempo: 28% (18% «un poco menos»; 10% «mucho menos»). La misma cantidad de tiempo: 21%.

Los usuarios están cada vez más frustrados con la calidad de búsqueda de Google, y esto es una confirmación adicional de que no lo estamos imaginando, a pesar de que Google nos dice que a la gente le encantan los resúmenes de inteligencia artificial y los resultados de búsqueda. Google nos dijo que el uso de la búsqueda está aumentando debido a los resúmenes de inteligencia artificial, ¿pero es porque están investigando más a fondo o porque no pueden encontrar las respuestas correctas?

Solo el 12% de los encuestados dijo que los anuncios de búsqueda eran relevantes para ellos. Más encuestados dijeron que encuentran más anuncios relevantes en otros seis canales: televisión (41%), YouTube (37%), Facebook (32%), Instagram (32%), TikTok (19%), sitios web (18%).

Otros hallazgos. En las páginas de resultados del motor de búsqueda, el 35% de los encuestados dijo que omiten (supongo que pasan por alto) los anuncios para ir a los resultados del sitio web (orgánicos). Además:

El 33% busca fuentes/empresas que reconoce por nombre (hola, reconocimiento de marca). El 33% busca resultados con calificaciones de estrellas más altas. Menos sorprendente. Otros hallazgos de interés:

El 30% de los encuestados cree que los servicios que aparecen más arriba en los resultados de búsqueda suelen ser más relevantes. El 46% de los encuestados dijo que tener resultados «creíbles» haría que la experiencia de búsqueda fuera más agradable. El 86% de los encuestados cree que casi siempre, o más a menudo que no, pueden distinguir entre los resultados orgánicos y pagados. El 47% cree que es más fácil distinguir entre resultados orgánicos y pagados; el 37% piensa que es más difícil; el 16% cree que no es diferente en comparación con hace cinco años.

Pero. También es posible que algunos, o muchos, de los encuestados no sean los más expertos tecnológicamente.

La encuesta de 1.000 adultos estadounidenses fue diseñada para garantizar una representación nacional en términos de género, edad y región. Se llevó a cabo a fines de febrero por Scorpion, un proveedor de soluciones de marketing digital y tecnología, en colaboración con Dynata, una empresa de investigación de mercado independiente.

Indicadores para una evaluación del impacto de los datos abiertos

Bas, P., Page, M., Indicators for an open data impact assessment, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2830/323236

Aunque el impacto de los datos abiertos ha sido estudiado anteriormente, generalmente de manera ad hoc, aún es necesario explorar métodos estructurados e indicadores para medir su impacto y la posibilidad de basar estos indicadores en conjuntos de datos existentes. Este informe representa el segundo paso en la definición de una metodología para una evaluación a nivel europeo del impacto de los datos abiertos. La serie de estudios tiene como objetivo crear una herramienta interactiva de monitoreo para la evaluación del impacto de los datos abiertos. Este segundo estudio busca proporcionar una base teórica para desarrollar una metodología que analice el impacto de los recursos de datos públicos, enfocándose en los diferentes impactos a considerar y los indicadores que podrían cuantificarlos. Este informe utiliza los resultados y conclusiones presentados en el primer estudio sobre «repensar el impacto de los datos abiertos» como base. Los resultados de este estudio podrían incorporarse en un tercer estudio, donde se podría desarrollar y pilotar una metodología preliminar para medir el impacto de los datos abiertos.