Archivo de la etiqueta: Calidad

Crisis en la calidad de publicaciones científicas: volumen vs. valor

Sample, Ian. “Quality of Scientific Papers Questioned as Academics ‘Overwhelmed’ by the Millions Published.The Guardian, Jul 13, 2025. https://www.theguardian.com/science/2025/jul/13/quality-of-scientific-papers-questioned-as-academics-overwhelmed-by-the-millions-published

La calidad de los artículos científicos está siendo seriamente cuestionada, ya que los académicos se encuentran desbordados por los millones de estudios que se publican cada año, una saturación que amenaza la integridad y la fiabilidad del sistema científico a escala global.

Un artículo en una revista científica que se hizo viral no por su ciencia, sino por una imagen generada por inteligencia artificial que mostraba una rata con un pene enorme y etiquetada con palabras sin sentido. Esa imagen pasó desapercibida por revisores y editores y llevó a que el artículo fuese retirado tres días después de su publicación, poniendo de manifiesto fallos en los procesos de revisión y control.

El texto recuerda que las revistas científicas no son simples repositorios académicos: condicionan decisiones médicas, políticas públicas, desarrollos tecnológicos y estrategias geopolíticas, incluso estimaciones de víctimas en conflictos armados. Desde el siglo XVII —cuando la Royal Society inició la publicación continuada de revistas científicas—, estos espacios han sido centrales para el avance del conocimiento, acogiendo trabajos de figuras como Newton, Darwin, Einstein o Marie Curie.

Sin embargo, los datos muestran que la cantidad de artículos científicos indexados ha crecido de forma exponencial: por ejemplo, en la base de datos Web of Science los estudios aumentaron de 1,71 millones en 2015 a 2,53 millones en 2024, y sumando otros tipos de artículos el total ronda más de 3 millones al año. Esta expansión ha superado con creces el crecimiento del número de investigadores y la capacidad de la comunidad científica para leer, revisar y valorar críticamente todos esos trabajos.

El sistema de evaluación por pares —el sistema en el que científicos expertos revisan artículos antes de su publicación— está cada vez más estresado. Revisar millones de artículos requiere tiempo, y muchos académicos están «agotados» por la carga de trabajo voluntario que supone revisar textos para otros investigadores. Este estrés contribuye a que errores, contenidos de baja calidad o incluso fraudes pasen desapercibidos, lo que debilita la confianza en los resultados publicados. Según un estudio reciente, solo en 2020, los académicos de todo el mundo dedicaron más de 100 millones de horas a la revisión por pares de artículos para revistas. En el caso de los expertos de Estados Unidos, el tiempo dedicado a la revisión ese año supuso más de 1500 millones de dólares en mano de obra gratuita.

Una causa fundamental es el conjunto de incentivos académicos y comerciales que priorizan cantidad sobre calidad:

  • Los investigadores compiten por publicar más y más artículos para avanzar en su carrera (“publish or perish”), lo que puede llevar a trabajos fragmentados, poco sustanciales o exagerados.
  • Las editoriales científicas comerciales obtienen grandes beneficios de los modelos de acceso abierto con tasas por publicación, lo que puede fomentar la proliferación de textículos académicos y revistas especializadas que aceptan prácticamente cualquier envío.

El artículo destaca que estas dinámicas han creado un sistema que incentiva la producción masiva de estudios aunque muchos aporten poco conocimiento nuevo o incluso errores, algo que preocupa a científicos de alto nivel, incluidos premios Nobel y sociedades científicas.

Varios expertos y organizaciones están pidiendo reformas profundas. Entre las propuestas que circulan en el debate público y académico están:

  • Reformar el sistema de evaluación de investigadores para valorar calidad sobre cantidad.
  • Repensar el rol y modelo de negocio de las editoriales, reduciendo la dependencia de tarifas por publicación y fomentando modelos de acceso y revisión más sostenibles.
  • Incrementar el uso de herramientas y métodos que mejoren la calidad de la revisión por pares y detecten malas prácticas, incluidos fraudes y contenidos generados de forma automatizada.

La IA ha acelerado la producción de artículos y podido generar textos e imágenes científicas que no siempre son verificados adecuadamente. Esto alimenta temores de que herramientas como modelos de lenguaje puedan ser utilizadas para generar artículos de baja calidad o manipular revisiones si no se establecen mejores salvaguardas de integridad.

¿Qué hace que una biblioteca sea vibrante en un sistema universitario?

WizLibrarian. The Soul of the Library, From Chaos to Clarity: What Makes a Vibrant Library in a University System? Blogspot, 17 de julio de 2025. https://wizlibrarian.blogspot.com/2025/07/the-soul-of-library-from-chaos-to.html

Una biblioteca vibrante en el contexto universitario no se define únicamente por el número de volúmenes que alberga o por la sofisticación de sus infraestructuras tecnológicas. Su vitalidad se manifiesta, ante todo, en su capacidad de responder a las necesidades académicas, investigadoras y humanas de la comunidad que sirve.

La esencia de la biblioteca, como señala WizLibrarian, está en ser una institución centrada en las personas, un organismo vivo que acompaña la evolución de la civilización y que requiere reglas claras para evitar el caos en su funcionamiento cotidiano.

  1. Biblioteca como institución orientada a las personas

El artículo enfatiza que una biblioteca es una institución centrada en las personas y que evoluciona a la par con la civilización. Para evitar el caos y funcionar correctamente, necesita políticas claras y actualizadas.

2. Importancia de documentar las políticas

Uno de los pilares de esa vitalidad es la existencia de políticas bibliotecarias bien definidas. No se trata de documentos meramente administrativos, sino de guías prácticas que orientan cada acción de la institución. En muchas bibliotecas del Sur Global, estas políticas existen solo de manera oral, lo cual las vuelve frágiles y pasajeras. Al registrarlas por escrito, aunque sean breves y redactadas por un pequeño comité, la biblioteca gana en estabilidad y proyección. Además, al ser revisadas y actualizadas periódicamente, permiten que la institución se adapte a un entorno cambiante sin perder coherencia en su misión.

3. Adaptabilidad institucional

La adaptabilidad es otro rasgo clave. Una biblioteca no necesita ser enorme ni disponer de recursos ilimitados para ser vibrante; lo esencial es contar con políticas que reflejen su identidad, sus prioridades y su contexto particular. Las necesidades de una biblioteca universitaria en un entorno urbano con gran producción científica no son las mismas que las de una institución en una región rural con limitaciones presupuestarias. En ambos casos, sin embargo, el contar con normas escritas —ya sea sobre adquisición de materiales, acceso a la información digital o ética profesional— marca la diferencia entre el orden y la confusión.

4. Políticas esenciales para bibliotecas modernas

Entre las políticas que definen a una biblioteca progresista se encuentran la de desarrollo y gestión de colecciones, la de repositorio institucional y acceso abierto, la de uso de recursos electrónicos, la de servicios de referencia, la de ética y plagio, y, más recientemente, la de inteligencia artificial. Cada una de ellas, aunque pueda solaparse con otras, cumple una función esencial. La política de desarrollo de colecciones, por ejemplo, no solo establece los criterios de compra, donación o descarte de materiales, sino que también asegura que las adquisiciones estén alineadas con los objetivos de la universidad y con las demandas reales de docentes, investigadores y estudiantes. Este nivel de planificación otorga coherencia y sentido al crecimiento de la colección, evitando tanto la acumulación caótica como la carencia de recursos estratégicos.

El artículo señala varias políticas que toda biblioteca moderna y progresista debería considerar:

  • Desarrollo o adquisición de colecciones (incluyendo suscripciones, donaciones, y descarte)
  • Catalogación
  • Repositorio institucional
  • Acceso abierto
  • Recursos electrónicos
  • Investigación
  • Plagio
  • Ética bibliotecaria
  • Normas de uso
  • Servicios de referencia
  • Políticas sobre inteligencia artificial

Finalmente, una biblioteca universitaria vibrante es aquella que logra un equilibrio entre tradición y modernidad. Mantiene sus funciones históricas como garante de memoria y preservación documental, pero a la vez innova en servicios digitales, acceso remoto y nuevas metodologías de enseñanza-aprendizaje. Es, en palabras del artículo, el paso “del caos a la claridad”: un espacio en el que la comunidad universitaria encuentra organización, apoyo y acompañamiento intelectual, guiado por políticas sólidas que dotan de coherencia a cada decisión.

Efectividad de las guías de investigación de las bibliotecas universitarias para fomentar las habilidades de alfabetización informacional en los estudiantes universitarios

DeFrain, Erica, Leslie Sult, and Nicole F. Pagowsky. «Effectiveness of Academic Library Research Guides for Building College Students’ Information Literacy Skills: A Scoping ReviewCollege and Research Libraries (September 2025). https://digitalcommons.unl.edu/libraryscience/446/.

El artículo Effectiveness of Academic Library Research Guides for Building College Students’ Information Literacy Skills: A Scoping Review, escrito por Erica DeFrain, Leslie Sult y Nicole F. Pagowsky, realiza una revisión sobre la efectividad de las guías de investigación de las bibliotecas universitarias para fomentar las habilidades de alfabetización informacional en los estudiantes universitarios. Las guías de investigación son herramientas comunes para la enseñanza de estas habilidades, pero existe una falta de evidencia sólida sobre su efectividad.

En su revisión, los autores analizaron 1.724 publicaciones y seleccionaron 61 estudios que cumplían con los criterios de inclusión. Los estudios revisados fueron en su mayoría individuales, exploratorios y correlacionales, con un enfoque predominante en el uso de métodos mixtos que combinaban encuestas a estudiantes y análisis de datos provenientes de fuentes como el tráfico web. La mayoría de los estudios se centraron en la satisfacción de los estudiantes o la usabilidad de las guías como indicadores de la efectividad del aprendizaje, mientras que pocos se centraron en evaluar la adquisición de habilidades.

La revisión tiene como objetivo ayudar a los profesionales a desarrollar herramientas de aprendizaje más impactantes y prácticas para la creación y evaluación de estas guías. En resumen, el artículo destaca la necesidad de una evaluación más profunda y específica en cuanto a la efectividad real de las guías en el desarrollo de habilidades de alfabetización informacional.

Las conclusiones de los autores sobre la efectividad de las guías para el aprendizaje variaron, clasificándose en cuatro categorías: positivas, neutrales, negativas o mixtas. Sin embargo, interpretar su noción de «efectividad» fue complicado debido al amplio alcance de la mayoría de las investigaciones. Pocos estudios establecieron explícitamente expectativas sobre cómo las guías podrían influir en el aprendizaje de los estudiantes o los beneficios que podrían ofrecer. Solo seis estudios (9.8%) emplearon hipótesis previas para guiar su investigación, mientras que el resto no contó con referencias claras para evaluar el impacto.

De los 23 estudios con resultados positivos, 17 se basaron parcialmente en medidas afectivas obtenidas a través de encuestas a los estudiantes. Estos estudios encontraron una alta satisfacción por parte de los estudiantes, quienes indicaron que las guías eran útiles, relevantes o valiosas para sus necesidades académicas. Sin embargo, no todos los estudios reportaron resultados positivos. Por ejemplo, algunos estudiantes mostraron insatisfacción o neutralidad hacia las guías, especialmente en campos como STEM, donde se valoraron menos.

En varios estudios, aunque los estudiantes expresaron satisfacción con las guías, también indicaron que no sentían la necesidad de usarlas o se comprometían poco con su contenido. Algunos investigadores reconsideraron la efectividad de las guías tras reportar bajos niveles de uso. Además, se destacó que las guías de tipo «pathfinder», que simplemente direccionan a los estudiantes a recursos, no eran tan valoradas como las guías más instructivas que explican cómo usar esos recursos.

A pesar de la baja evidencia de uso, algunos autores continuaron desarrollando y manteniendo grandes cantidades de guías con la esperanza de que en el futuro los estudiantes se interesaran más por su contenido. Sin embargo, varios estudios documentaron la dificultad o resistencia de los estudiantes para utilizar de manera efectiva el contenido basado en guías, como en casos donde los estudiantes, a pesar de recibir formación, preferían utilizar recursos de la web libre o no recomendados por los bibliotecarios.

Web of Science ha suspendido temporalmente la indexación de la revista eLife debido a su modelo de publicación innovador que incluye revisión por pares pública

Brainard, Jeffrey. «Web of Science Index Puts eLife ‘On Hold’ Because of Its Radical Publishing ModelScience, October 24, 2024. https://www.science.org/content/article/web-science-index-puts-elife-hold-because-its-radical-publishing-model.

Web of Science ha suspendido la inclusión de la revista eLife debido a su nuevo modelo de publicación, que se implementó en enero de 2023. Este modelo incluye la revisión por pares pública sin una decisión final sobre la aceptación o rechazo de los manuscritos, lo que entra en conflicto con los estándares de calidad de Web of Science. Esta decisión podría comprometer el factor de impacto (IF) de eLife, un indicador controvertido que mide la calidad de una revista en función del promedio de citas a sus artículos.

La dirección de eLife expresó su decepción por la decisión de Clarivate, la empresa matriz del Web of Science, al considerar que frena los esfuerzos por mejorar la publicación y la revisión por pares utilizando principios de ciencia abierta. A pesar de que Clarivate no ha señalado artículos de eLife como de baja calidad, ha indicado preocupaciones sobre la falta de una decisión editorial basada en la validación de la revisión por pares.

eLife, una revista sin fines de lucro centrada en las ciencias biológicas, busca desafiar la dominancia del IF como medida de calidad y ha implementado su nuevo modelo como un experimento para combatir las ineficiencias del sistema de publicación científica, como los largos retrasos y la falta de transparencia. Este modelo exige a los autores una tarifa de 2500$ por artículo y permite que las revisiones, sean positivas o negativas, se publiquen junto con el manuscrito para su lectura gratuita.

Desde su implementación, el modelo ha generado un debate sobre la viabilidad financiera de eLife y su capacidad para atraer a científicos. Aunque el total de envíos disminuyó en un 25% en comparación con el mismo período del año anterior, más del 90% de los autores eligieron el nuevo modelo de publicación. La revista prevé anunciar pronto un nuevo informe sobre sus tendencias de crecimiento, que parecen prometedoras este año.

Clarivate ha suspendido recientemente otras revistas, como Science of the Total Environment de Elsevier, Cureus, y Heliyon, y eliminó 11 títulos en su última actualización, incluidos Multimedia Tools and Applications y Environmental Science and Pollution Research de Springer Nature, citando también problemas de calidad.

Los científicos que dedican tiempo a revisar manuscritos no reciben recompensas por sus esfuerzos. Es hora de cambiar eso.

Magazine, Undark. «The Misplaced Incentives in Academic Publishing». Undark Magazine, 4 de julio de 2024. https://undark.org/2024/07/04/opinion-misplaced-incentives-academic-publishing/.

Las lamentaciones sobre los modelos actuales de publicación académica provienen de todos los rincones de la comunidad científica. ¿Cómo funciona el sistema? El científico redacta los resultados de su estudio en forma de artículo. Ese artículo es revisado por «pares» (normalmente otros científicos) para una revista. Con pocas excepciones, esta es la ruta necesaria para publicar trabajos en el ecosistema profesional de la ciencia.

Los argumentos en contra son muchos, pero tienden a centrarse en características dudosas de la revisión por pares y el modelo de negocio de las revistas que publican informes revisados por pares sobre nuevas investigaciones. Las revistas cobran a las instituciones por suscripciones, y a menudo los investigadores individuales pagan hasta miles de dólares por artículo para su publicación. Todo esto mientras las revistas utilizan mano de obra gratuita o de bajo costo de editores y revisores. La hipocresía relacionada es que estas revistas se benefician de investigaciones pagadas por los contribuyentes, financiadas a través de organismos federales como la National Science Foundation y los National Institutes of Health.

A pesar de que el público financia gran parte de este trabajo, la mayor parte permanece tras un muro de pago, accesible gratuitamente solo para aquellos afiliados a instituciones que pueden pagar suscripciones (y los raros individuos que pueden pagar por sí mismos), eliminando así a la mayoría del público de la ciencia ciudadana. Muchas de las revistas que ofrecen artículos de «acceso abierto» lo hacen cobrando una tarifa exorbitante a los investigadores para publicar.

Pero por condenables que sean estos cargos, solo capturan un aspecto de la hipocresía y la irracionalidad en el modelo de publicación académica. Esto ha llevado a concluir que muchos de los mayores pecados, no apreciados, de la publicación no surgen de las revistas en sí, sino del ecosistema profesional que define la academia moderna. La estructura de incentivos fomenta un comportamiento que refuerza el modelo de publicación actual, que está roto.

El sistema actual recompensa la productividad individual mucho más que las contribuciones al sistema que fomenta la productividad. Es decir, la ciencia académica ha creado un desajuste entre los deseos y necesidades de los científicos individuales y el esfuerzo necesario para mantener una empresa científica sostenible, donde los comentarios de sus pares son necesarios.

Los científicos más experimentados suelen aconsejar dejar de lado la revisión de manuscritos o el servicio como editor de una revista y en su lugar centrarse en la propia producción. Este es un excelente consejo para un proceso pervertido: la revisión por pares de calidad es lo que da confianza en que la investigación que se lee en las revistas es de alta calidad. Pero la centralidad de la revisión por pares se basa en la suposición de que las personas evaluarán cuidadosamente el trabajo de otros por buena voluntad, o que los autores reconocerán las horas de trabajo que requieren las publicaciones de los revisores devolviendo el favor.

Seguramente, la participación de los científicos en el proceso puede ayudar a su propia productividad: los académicos construyen relaciones con los editores de revistas en las que podrían publicar sus propios manuscritos, y leer y revisar manuscritos les expone a nuevos trabajos. Pero en el mejor de los casos, estos beneficios son indirectos. Hablando claramente, prácticamente nadie en la historia de la ciencia profesional ha sido promovido o recompensado significativamente por proporcionar revisiones estelares del trabajo de otros. Aquellos que pasan horas mejorando el trabajo de sus pares a menudo lo hacen como un favor (o más bien, como una «donación»).

El sistema actual recompensa la productividad individual mucho más que las contribuciones al sistema que fomenta la productividad.

No es necesario estar versado en teoría de juegos evolutiva para reconocer cómo este sistema selecciona el comportamiento egoísta: las perspectivas de carrera de un científico son mucho mejores si decide solo producir manuscritos, en lugar de participar en su evaluación. El problema aquí puede describirse en términos termodinámicos: para que el sistema funcione responsablemente, la energía invertida debería ser aproximadamente igual a la energía que se obtiene. Muchos manuscritos publicados de impacto fueron producto del trabajo de dos o tres (o más) revisores. La única forma de agregar balance energético sería que cada investigador revisara dos o tres manuscritos por cada uno que publican como autor principal o corresponsal (uno de los que lideraron el esfuerzo de investigación). Desafortunadamente, los propios intereses de los científicos tienen prioridad.

Impresionantemente, el incentivo al egoísmo funciona tanto para científicos junior como senior. Los científicos junior deben centrarse en sí mismos porque la productividad es la clave para el ascenso profesional. Para los científicos senior, no hay razón para participar porque su (a menudo bien ganada) seguridad laboral elimina prácticamente cualquier consecuencia de no participar. Debido a la falta de incentivos, incluso las revistas de alto impacto pueden tener dificultades para encontrar revisores capacitados para los manuscritos enviados.

Los asociados postdoctorales y los estudiantes de posgrado pueden y deben participar formalmente en la revisión por pares porque muchos están calificados para hacerlo, y porque evaluar manuscritos es un excelente ejercicio de formación para el científico en desarrollo. Pero la motivación para incluir a los aprendices en la revisión por pares no es un nuevo deseo de formar a los científicos junior en todos los aspectos de la ciencia. Más bien, se necesita incluirlos porque se está quedando sin voluntarios más experimentados, y se debe encontrar la mano de obra donde pueda encontrarse.

La crisis de revisores tiene otros efectos perniciosos. Si todos los que son autores principales de un manuscrito que es revisado no devuelven el esfuerzo, entonces las matemáticas resultantes no cuadran tan bien: menos personas revisan manuscritos que las que los escriben. ¿El problema aquí? Las mentes que revisan nuevos trabajos deberían idealmente ser tan diversas en perspectiva como los autores que generan el trabajo. Este no es un problema de equilibrio, sino uno relacionado con la innovación: las diferentes perspectivas están mejor equipadas para apreciar la vasta gama de ciencia que se está llevando a cabo en todo el mundo.

Sin una gran y diversa base de revisores, un número relativamente pequeño de individuos moldea el trabajo que termina en las revistas. Incluso si esta pequeña fracción de súper-revisores son personas honestas y confiables, sus sesgos, metodológicos o de otro tipo, seguramente sesgarán los tipos de investigación que terminan en las páginas de nuestras revistas favoritas.

Al final, señalar estos defectos podría ser poco más que otra contribución al popular universo de quejas académicas. Se pueden identificar cosas del sistema que no gustan, que socavan la calidad, la originalidad y la inclusividad. Y algunos de estos elementos son legítimamente difíciles de cambiar.

Las mentes que revisan nuevos trabajos deberían idealmente ser tan diversas en perspectiva como los autores que generan el trabajo.

Sin embargo, la publicación académica es diferente de muchos otros rincones defectuosos de la ciencia profesional. Y algunas de las soluciones se pueden lograr con actividades relativamente de bajo esfuerzo. El pago por la revisión es una solución propuesta popular. Pero otras pueden lograrse sin consideraciones financieras. Por ejemplo, los decanos de ciencia en instituciones de élite podrían reunirse mañana (vía Zoom) y decidir una forma formal de incentivar fuertemente la participación en todos los aspectos del proceso de publicación. Podrían reconocer una verdad no reconocida: el científico que evalúa manuscritos regularmente, reanaliza datos y proporciona comentarios reflexivos y extensos es tanto un protector y promotor de la ciencia original como el que publica exclusivamente manuscritos por su cuenta. Estas son áreas factibles donde el liderazgo puede cambiar la conversación en relativamente poco tiempo. Por supuesto, existen grandes barreras para que algo de este tipo se ponga en práctica.

Al final, los intentos de racionalizar el sistema existente con argumentos como «Esto es lo que todos los demás están haciendo y lo que se ha hecho en el pasado» no pueden ser defendidos por ningún tipo de pensamiento maduro. Los caminos hacia muchos tipos de infierno están pavimentados con «Solo trabajo aquí».

Es necesario ser empático. Cambiar las cosas requiere tiempo y energía. Los sistemas que sustentan la publicación académica son subproductos de decisiones y no decisiones de personas ostensiblemente inteligentes que son hábiles en revelar las maravillas del mundo natural. Es hora de que dirijan su ingenio hacia adentro, hacia la creación de un nuevo sistema que recompense activamente a todos los que mantienen viva la ciencia.

El Proyecto DIAMAS presenta DOAS, el referente de calidad para el Acceso Abierto de la ruta Diamante

«Introducing DOAS: The Benchmark for Diamond Open Access Quality – DIAMAS». Accedido 6 de junio de 2024. https://diamasproject.eu/introducing-doas-the-benchmark-for-diamond-open-access-quality/.

The Diamond OA Standard (DOAS) es una nueva herramienta presentada por el proyecto DIAMAS para promover la calidad en la publicación de acceso abierto diamante (OA). Sirviendo como una guía técnica y un recurso práctico de referencia, DOAS combina directrices comprensivas con una herramienta de autoevaluación para elevar los estándares en la publicación académica.

DOAS: Un Marco de Calidad Integral

DOAS se basa en criterios esenciales y verificables en siete componentes clave de la publicación académica para asegurar prácticas equitativas, transparentes y de alta calidad. Estos componentes incluyen:

  • Financiación
  • Propiedad Legal, Misión y Gobernanza
  • Ciencia Abierta
  • Gestión Editorial, Calidad Editorial e Integridad en la Investigación
  • Eficiencia del Servicio Técnico
  • Visibilidad, Comunicación, Marketing e Impacto
  • Equidad, Diversidad, Inclusión y Pertenencia (EDIB), Multilingüismo y Equidad de Género

Cada una de estas áreas está respaldada por criterios y directrices detalladas desarrolladas mediante un análisis riguroso de los estándares existentes y las mejores prácticas, refinadas además por la retroalimentación de la comunidad. Al abordar estos componentes clave, DOAS aboga por un modelo de publicación accesible y gobernado por la comunidad académica. Los estándares fueron delineados en EQSIP del proyecto DIAMAS.

Declaración de Barcelona. Los investigadores necesitan bases de datos bibliográficas «abiertas»

Barcelona Declaration on Open Research Information

Español

Los investigadores necesitan bases de datos bibliográficas «abiertas», según una nueva declaración Las principales plataformas, como Web of Science, ampliamente utilizadas para generar métricas y evaluar a los investigadores, están protegidas por derechos de propiedad intelectual.


Cuando las universidades están decidiendo a quién contratar y promocionar, o cuando las organizaciones de financiamiento están seleccionando proyectos para financiar, es muy probable que estén consultando más que solo los materiales de solicitud. Muchas organizaciones confían en bases de datos que recopilan información sobre publicaciones, incluidos autores, afiliaciones, citas y fuentes de financiamiento, para crear métricas destinadas a cuantificar la productividad de un investigador y la calidad de su trabajo.

Algunas de las bases de datos más conocidas, como Web of Science y Scopus, son propietarias y ofrecen datos y servicios de acceso pago que respaldan estas y otras métricas, incluidos los rankings universitarios y los factores de impacto de las revistas. Pero en una declaración publicada hoy, más de 30 organizaciones de investigación y financiamiento llaman a la comunidad a comprometerse con plataformas que, en cambio, sean gratuitas para todos, más transparentes sobre sus métodos y sin restricciones sobre cómo se puede utilizar los datos.

La Declaración de Barcelona sobre la Información de Investigación Abierta afirma que «en un momento en que la toma de decisiones en ciencia está cada vez más guiada por indicadores y análisis, abordar los problemas de la información de investigación cerrada debe ser una prioridad absoluta». Los firmantes hasta ahora incluyen a financiadores como la Fundación Bill y Melinda Gates y la Agencia Nacional de Investigación de Francia, así como a más de una docena de instituciones académicas.

La Universidad de la Sorbona, que canceló su suscripción a Web of Science el año pasado y cambió a una plataforma más nueva y abierta llamada OpenAlex, dijo en un comunicado que “al firmar la Declaración, queremos demostrar que no solo este movimiento hacia la información de investigación abierta debería ser un objetivo, sino que también se puede lograr”. El cambio puede ayudar a remediar el enfoque de las bases de datos existentes en las revistas en inglés, dicen los defensores. También podría ayudar a mejorar “la circulación del conocimiento científico y local producido en diferentes idiomas, formatos y en diferentes regiones geográficas”, dice otro signatario, el Consejo Latinoamericano de Ciencias Sociales a través del Foro Latinoamericano para la Evaluación Científica.

Jason Portenoy, ingeniero de datos senior en OurResearch, reconoce esta necesidad de aporte de la comunidad, diciendo que es comprensible que las instituciones puedan dudar en volver a hacer el trabajo. “Pero la diferencia es que con OpenAlex, está sucediendo de manera abierta”, dice. Cualquier brecha en la calidad de los datos se está cerrando rápidamente, agrega Jason Priem, CEO de OurResearch. “OpenAlex está evolucionando muy rápidamente, y a menudo los problemas descubiertos por nuestra comunidad se solucionan en unos pocos meses”. Cuando uno de los coordinadores de la declaración, Ludo Waltman, director científico del Centro de Estudios de Ciencia y Tecnología en la Universidad de Leiden, y colegas recientemente usaron OpenAlex para clasificar más de 1400 universidades en todo el mundo, concluyeron que, aunque necesita mejorar, el enfoque produjo “datos de calidad sorprendentemente buenos”.

Daniel Hook, CEO de Digital Science, que opera la base de datos propietaria Dimensions, acoge esta idea. (Dimensions ya ofrece una versión gratuita para uso no comercial, aunque los usuarios deben suscribirse para acceder a todas las funciones). Sin embargo, Hook dice que tal transición llevará tiempo. Las bases de datos propietarias necesitan recuperar los costos de establecer, mejorar y mantener conjuntos de datos tan grandes, un desafío que los equivalentes abiertos como OpenAlex también podrían enfrentar a largo plazo.

La declaración es un «excelente desarrollo», dice Elizabeth Gadd, experta en comunicaciones académicas y jefa de cultura e evaluación de investigación e innovación en la Universidad de Loughborough, que no estuvo involucrada en su preparación. “Muchas organizaciones han hecho compromisos públicos con prácticas de investigación abierta pero continúan utilizando fuentes de datos bibliográficos cerradas y comerciales para análisis de investigación”. El anuncio debería “estimular a una gama más amplia de organizaciones a ‘poner su dinero donde está su boca’”.

Con ese fin, los partidarios de la declaración esperan establecer una Coalición para la Información de Investigación Abierta para planificar los próximos pasos, dice la coordinadora Bianca Kramer, experta en comunicaciones académicas de la consultora Sesame Open Science. “Queremos facilitar que las organizaciones trabajen hacia esa transición, entre otras cosas, beneficiándose de la experiencia de los demás y explorando la acción colectiva”.

COMPROMISOS


1 – Haremos que la apertura sea la norma para la información de investigación que utilizamos y producimos

  • La apertura será la norma para la información sobre investigación que utilizamos, por ejemplo, para evaluar a investigadores e instituciones, apoyar la toma de decisiones estratégicas y encontrar resultados de investigación relevantes.
  • La apertura será la norma para la información de investigación que produzcamos, por ejemplo, la información sobre nuestras actividades y resultados, con excepción de la información cuya apertura sería inapropiada (‘tan abierta como sea posible y tan
    cerrada como sea necesario’


2. – Trabajaremos con servicios y sistemas que apoyen y hagan posible
la información abierta sobre investigación

  • En cuanto a los servicios y plataformas de publicación, requeriremos que la información de investigación generada en los procesos de publicación (por ejemplo, metadatos de artículos de investigación y otros resultados) esté disponible de forma abierta a través de infraestructuras académicas abiertas, utilizando protocolos e identificadores estándar cuando estén disponibles.
  • En el caso de los sistemas y plataformas para la gestión interna de la información de investigación (por ejemplo, los actuales sistemas de información de investigación), requeriremos que toda la información de investigación pertinente pueda exportarse y hacerse abierta, utilizando protocolos e identificadores estándares cuando estén disponibles.


3. Apoyaremos la sostenibilidad de las infraestructuras para la información abierta sobre investigación

  • Asumimos la responsabilidad de apoyar infraestructuras para la información abierta sobre investigación, por ejemplo participando en la creación de comunidades y en la gobernanza de las mismas y aportando contribuciones justas y equitativas a la estabilidad financiera y al desarrollo de estas infraestructuras.
  • Esperamos que las infraestructuras que apoyamos apliquen buenas prácticas
    de gobernanza comunitaria y sostenibilidad (por ejemplo, los Principios de la
    Infraestructura Académica Abierta).


4. Apoyaremos actuaciones colectivas para acelerar la transición hacia la apertura de la información sobre investigación

  • Reconocemos la importancia de compartir experiencias y coordinar acciones para promover en todo el sistema la transición de cerrada a abierta de la información de investigación.
  • Para facilitarlo, apoyamos la creación de una Coalición para la Información
    Abierta sobre Investigación y el refuerzo de la colaboración con otras iniciativas y organizaciones afines.

Medición de resultados más fácil para bibliotecas universitarias: recursos y herramientas para crear encuestas y analizar datos de resultados

Project Outcome for Academic Libraries 2023

Texto completo

Project Outcome es un conjunto de herramientas gratuitas que ofrece a las bibliotecas acceso a formación, análisis de datos y encuestas estandarizadas que miden los resultados en áreas clave de los servicios bibliotecarios. Project Outcome for Academic Libraries está diseñado para dar a las bibliotecas herramientas simples y recursos de apoyo para ayudar a convertir mejores datos en mejores bibliotecas.

ACRL se complace en anunciar la publicación del informe del año fiscal 2023 para el conjunto de herramientas Project Outcome for Academic Libraries. Los datos de este informe incluyen todas las encuestas y respuestas inmediatas y de seguimiento de las instituciones de los Estados Unidos y abarcan el período comprendido entre el 1 de septiembre de 2022 y el 31 de agosto de 2023.

Project Outcome es un conjunto de herramientas en línea gratuito diseñado para ayudar a las bibliotecas a comprender y compartir el impacto de los programas y servicios bibliotecarios esenciales al proporcionar encuestas simples y un proceso fácil de usar para medir y analizar resultados. Las bibliotecas participantes también reciben los recursos y el apoyo de capacitación necesarios para aplicar sus resultados y abogar con confianza por el futuro de su biblioteca. Las encuestas estandarizadas de Project Outcome permiten a las bibliotecas agregar sus datos de resultados y analizar tendencias por tema de servicio, tipo de programa y a lo largo del tiempo.

Si bien muchas bibliotecas recopilan datos sobre sus programas y servicios, lo que a menudo falta son los datos que indican los beneficios que las bibliotecas brindan a los estudiantes y los objetivos institucionales. Medir los resultados puede proporcionar a las bibliotecas nuevas formas de demostrar su eficacia más allá de los recuentos y las historias de éxito anecdóticas.

Bibliotecas de todo el país utilizan estas herramientas para realizar evaluaciones comparativas, comprender tendencias, abogar por mejores recursos y evaluar. Aprende más sobre la medición de los resultados del aprendizaje para impulsar el cambio, tomar decisiones basadas en datos y demostrar el impacto de los programas y servicios de tu biblioteca.


Áreas de Servicio

Colecciones Digitales y Especiales. Servicios relacionados con las colecciones o recursos de la biblioteca que respaldan la investigación o la instrucción en el aula. Ejemplos incluyen: exhibiciones digitales, repositorios o colecciones archivísticas.

Eventos y Programas Servicios o programas para informar, enriquecer y promover el aprendizaje comunitario. Ejemplos incluyen: exhibiciones, series de conferencias, servicios de participación cívica o actividades de alivio del estrés.

Instrucción Servicios o programas para ayudar a los estudiantes en su trabajo académico y mejorar su aprendizaje. Ejemplos incluyen: sesiones de instrucción en clases, programas de orientación bibliotecaria o talleres sobre temas específicos.

Tecnología de la Biblioteca Servicios relacionados con el acceso y las habilidades que ayudan a los usuarios de la biblioteca a incorporar la tecnología en su trabajo. Ejemplos incluyen: programas de préstamo de tecnología, espacios de creación (maker spaces) o talleres relacionados con la tecnología.

Investigación Servicios para mejorar las habilidades de investigación y ayudar a los investigadores a tener éxito. Ejemplos incluyen: servicios de referencia, servicios de consulta de investigación o talleres para estudiantes de posgrado o profesores.

Espacio Espacios específicos destinados a mejorar el rendimiento académico y apoyar el aprendizaje estudiantil. Ejemplos incluyen: salas de estudio en grupo, espacios de estudio individual o centros de redacción o tutoría.

Apoyo a la Enseñanza Servicios para ayudar a los profesores e instructores a desarrollar planes de estudio y/o materiales de curso que apoyen mejor el aprendizaje estudiantil. Ejemplos incluyen: servicios de REA (Recursos Educativos Abiertos), módulos de aprendizaje en línea o talleres de enseñanza para profesores.

Project Outcome proporciona estas herramientas para que las bibliotecas midan los resultados de sus usuarios:

  • Encuestas Inmediatas: son encuestas de seis preguntas diseñadas para distribuirse inmediatamente después de un programa o servicio, con el objetivo de comprender mejor el impacto inmediato de un programa o servicio en los usuarios.
  • Encuestas de Seguimiento: se utilizan 4-8 semanas después de que se completa un programa o servicio, y ayudan a las bibliotecas a comprender si los usuarios han cambiado su comportamiento o continuado beneficiándose del programa o servicio.
  • Directrices de Medición de Resultados: diseñadas para ayudar a las bibliotecas a realizar métodos avanzados de medición de resultados y demostrar un impacto colaborativo a largo plazo en la comunidad.

El kit de herramientas incluye:

  • Una herramienta de gestión de encuestas donde las bibliotecas pueden crear y personalizar sus encuestas, ingresar y rastrear respuestas, y descargar sus datos sin procesar.
  • Informes predefinidos y personalizables que facilitan a las bibliotecas compartir sus resultados y abogar por sus programas y servicios.
  • Paneles de datos interactivos que ayudan a las bibliotecas a analizar sus resultados.
  • Una variedad de recursos de capacitación, incluidas directrices de medición de resultados, mejores prácticas, estudios de caso y más.

Realidades del compartir datos académicos (RADS): metodología de investigación 2022–2023 encuestas y entrevistas

Association of Research Libraries. «Realities of Academic Data Sharing (RADS) Initiative: Research Methodology 2022–2023 Surveys and Interviews». Accedido 8 de febrero de 2024. https://www.arl.org/resources/realities-of-academic-data-sharing-rads-initiative-research-methodology-2022-2023-surveys-and-interviews/.

El acceso público a los datos de investigación es fundamental para avanzar en la ciencia y resolver problemas del mundo real. En los últimos años, varias agencias de financiamiento han requerido la gestión y el amplio intercambio de datos de investigación y otros resultados relacionados para acelerar los impactos de sus inversiones. En respuesta, muchas instituciones académicas han desarrollado e implementado infraestructuras para apoyar a los profesores en estos requisitos. Estos servicios a menudo están dispersos en toda la institución y se encuentran en varias unidades administrativas, como la tecnología de la información del campus, las bibliotecas universitarias y la oficina de investigación, entre otras. Dada esta naturaleza distribuida, la coordinación de los servicios suele ser informal y el verdadero costo institucional del acceso público a los datos de investigación no se comprende bien.

Este informe describe la metodología de la investigación llevada a cabo durante la primera etapa de la Iniciativa Realities of Academic Data Sharing (RADS) iniciativa financiada por la Fundación Nacional de Ciencias (NSF) de los Estados Unidos, desde 2021 hasta 2023. Se debe considerar como un complemento a los informes finales adicionales de investigación (documentos técnicos) producidos como resultado de esta investigación. Como parte de la Iniciativa RADS, se encuestaron administradores institucionales e investigadores financiados en 2022 y se entrevistaron en 2023 sobre detalles relacionados con los servicios de apoyo y prácticas de compartir datos de investigación, así como sus gastos correspondientes. Si bien la Asociación de Bibliotecas de Investigación (ARL) es la sede administrativa de la Iniciativa RADS, la investigación se llevó a cabo con participantes de las siguientes instituciones: Universidad Cornell, Universidad Duke, Universidad de Michigan, Universidad de Minnesota, Virginia Tech y Universidad de Washington en St. Louis.

Este proyecto aborda las siguientes preguntas de investigación:

¿Dónde están haciendo públicamente accesibles sus datos los investigadores financiados en estas instituciones y cuál es la calidad de los metadatos? ¿Cómo toman los investigadores decisiones sobre por qué y cómo compartir datos de investigación? ¿Cuál es el costo para la institución de implementar la política federal de acceso público a los datos de investigación? Para comprender mejor la perspectiva institucional sobre el acceso público a los datos de investigación, la Iniciativa Realidades del Compartir Datos Académicos (RADS) llevará a cabo investigaciones con equipos institucionales afiliados a DCN para cumplir los siguientes objetivos:

Evaluar el uso de repositorios de acceso público a datos de investigación para descubrir dónde los investigadores comparten más frecuentemente datos de investigación. Realizar un estudio retrospectivo de las prácticas de acceso público a datos de investigación específicas de la disciplina y del formato de los profesores en los campus académicos para desarrollar modelos funcionales basados en servicios e infraestructura para comprender cómo se está llevando a cabo el acceso público a datos de investigación en nuestros campus académicos utilizando recursos institucionales. Recopilar información financiera sobre gastos relacionados con el acceso público a datos de investigación para probar y evaluar los modelos financieros existentes para el acceso público a datos de investigación. Involucrar a la comunidad académica en general en modelos y mejores prácticas.

Google presenta E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) para ayudar valorar la calidad de las páginas

«Actualización más reciente de las directrices de evaluación de la calidad: el E-A-T adquiere una E adicional de Experiencia | Blog del Centro de la Búsqueda de Google». Google for Developers. Accedido 18 de octubre de 2023.

Ver

Google E-E-A-T (Experience, Expertise, Authoritativeness, and Trustworthiness) es un conjunto de criterios utilizados para evaluar los sitios web con el fin de impulsar mejoras en sus algoritmos y garantizar que se muestren contenidos de calidad a los usuarios.

Para mejorar el rendimiento de su sitio web en los resultados de búsqueda, es una buena práctica centrarse en crear contenido de alta calidad que demuestre experiencia, autoridad y confiabilidad en su campo. Construir una sólida reputación en línea y garantizar información precisa y confiable en su sitio web puede tener un impacto indirecto en sus clasificaciones en los motores de búsqueda. Sin embargo, los algoritmos y factores de clasificación exactos utilizados por los motores de búsqueda son propietarios y pueden cambiar con el tiempo. Se utiliza en la evaluación de calidad por los Evaluadores de Calidad de Búsqueda, pero no es un factor directo en el algoritmo de Google. En cambio, es un término utilizado en la comunidad de SEO para describir la calidad de un sitio web.


E-E-A-T significa «Experiencia, Autoridad y Confianza,» y es un concepto introducido por  Google’s Search Quality Rater Guidelines (SQRG) para ayudar a los evaluadores humanos a evaluar la calidad del contenido web. Si bien E-E-A-T no es un factor de clasificación directo utilizado por motores de búsqueda como Google, desempeña un papel importante en la determinación de la calidad y relevancia de las páginas web en los resultados de búsqueda.

Esto es lo que representa cada componente de E-E-A-T :

  • Experiencia (Experience): Google busca sitios web que ofrezcan una experiencia positiva a los usuarios. Esto implica una navegación fácil y amigable, una buena estructura de la página y un diseño que mejore la experiencia del visitante.
  • Experto (Expertise): Google valora la experiencia y conocimientos demostrados en un campo o temática específica. Se espera que el contenido esté respaldado por expertos o autoridades en la materia para garantizar su precisión y calidad.
  • Autoridad (Authoritativeness): La autoridad se refiere a la credibilidad y reputación del sitio web y sus creadores. Google evalúa la confianza que los usuarios pueden tener en la información proporcionada.
  • Confianza (Trustworthiness): La confianza se relaciona con la fiabilidad y veracidad de la información presentada en el sitio web. Los sitios web deben ser transparentes sobre sus propósitos y cumplir con las expectativas de los usuarios en cuanto a la precisión de la información.

Estos criterios son esenciales para garantizar que Google ofrezca resultados de búsqueda de alta calidad que sean útiles y confiables para los usuarios. Los sitios web que cumplen con los estándares de E-E-A-T tienen más posibilidades de obtener un buen posicionamiento en los resultados de búsqueda de Google y de ofrecer contenidos valiosos a sus visitantes.

E-E-A-T es particularmente relevante en campos donde la precisión y la credibilidad de la información son de suma importancia, como la salud, las finanzas y el asesoramiento legal. Los sitios web y creadores de contenido que establecen y mantienen un fuerte perfil de E-E-A-T son más propensos a ser considerados fuentes fiables tanto por los motores de búsqueda como por los usuarios, lo que puede tener un impacto indirecto en sus clasificaciones en los motores de búsqueda.

Si bien E-E-A-T no es un factor de clasificación directo, es un aspecto crucial de la optimización para motores de búsqueda (SEO) porque influye en cómo se evalúa y finalmente se clasifica su contenido por los motores de búsqueda como Google. Seguir las pautas de E-E-A-T puede ayudar a mejorar la calidad de su contenido y hacerlo más competitivo en los resultados de búsqueda.