Archivo de la categoría: Investigación

Conjuntos de datos de alto valor – Posibilidad de encontrar y comparar metadatos entre países

 Eendenburg, L., Fernández Nebreda, B., Suárez, J. and Rozbroj Jasinskaja, N., High-value datasets – Cross-country findability and comparability of metadata, Fernández Nebreda, B.(editor) and Rozbroj Jasinskaja, N.(editor), Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2830/0033148

El estudio analiza la implementación de conjuntos de datos de alto valor (HVDs) en los Estados miembros de la Unión Europea, cruciales para impulsar las iniciativas de datos abiertos y promover la reutilización de datos entre países. Aunque el progreso varía entre los Estados, es necesario un enfoque estandarizado para asegurar la comparabilidad e interoperabilidad de estos conjuntos de datos a nivel de la UE. El estudio aborda los desafíos en la armonización de metadatos y la mejora de la accesibilidad y localización de los HVDs, guiado por los principios FAIR (facilidad de localización, accesibilidad, interoperabilidad y reutilización) y las directrices DCAT-AP HVD. Esta investigación piloto, realizada entre abril y mayo de 2024, antes de la entrada en vigor del Reglamento de Implementación de la Comisión (UE) 2023/138 en junio de 2024, evalúa la localización y comparabilidad de los metadatos de los HVDs en países seleccionados (Dinamarca, Estonia, Letonia y Finlandia). La evaluación se basa en una muestra de 24 conjuntos de datos bajo seis categorías temáticas: geoespacial, observación de la Tierra y medio ambiente, meteorología, estadísticas, empresas y propiedad empresarial, y movilidad. El estudio también ofrece recomendaciones para mejorar la estandarización de los metadatos y la localización de los conjuntos de datos.

Las publicaciones en acceso abierto generan pocas visitas desde los resultados de búsqueda de Google a los repositorios institucionales

Orduña-Malea, E., Font-Julián, C.I. & Serrano-Cobos, J. Open access publications drive few visits from Google Search results to institutional repositoriesScientometrics (2024). https://doi.org/10.1007/s11192-024-05175-0

El estudio resalta la importancia de Google Search en la generación de visitas a los repositorios institucionales (IR). La falta de visibilidad en los resultados de los motores de búsqueda puede afectar negativamente la posibilidad de que las publicaciones depositadas en estos repositorios sean encontradas, leídas, descargadas y citadas. Para mejorar esta situación, las instituciones deben evaluar la visibilidad de sus repositorios y determinar las acciones necesarias para optimizarla. No obstante, medir la visibilidad en términos de optimización de motores de búsqueda (SEO) requiere un método preciso y técnicamente viable.

Este trabajo es el primer intento de diseñar un método de este tipo, aplicado específicamente a la medición de la visibilidad de los IR de las universidades nacionales de España en Google Search, utilizando métricas SEO derivadas de la herramienta Ubersuggest. Se analizó un extenso conjunto de datos durante tres meses, que incluyó 217,589 registros bibliográficos y 316,899 palabras clave orgánicas.

Los resultados revelan que muchos registros en estos repositorios no aparecen en los primeros puestos de los resultados de búsqueda de Google. Los registros más visibles suelen ser trabajos académicos (tesis y disertaciones) en español, particularmente en Humanidades y Ciencias Sociales. Sin embargo, la mayoría de las visitas provienen de un número reducido de registros. Estos hallazgos cuestionan el papel de los IR en atraer lectores a través de Google Search, destacando que su enfoque principal sigue siendo la preservación más que la difusión en línea.

El estudio sugiere que mejoras potenciales podrían lograrse mediante esquemas de metadatos mejorados y prácticas de descripción normalizadas, así como la adopción de otras estrategias que fortalezcan la visibilidad en línea de los IR. Este trabajo resulta relevante para defensores del acceso abierto, agencias de investigación, bibliotecarios, desarrolladores de repositorios y administradores de sitios web, ya que contribuye a una mejor comprensión del impacto web de los resultados de investigación depositados en los IR.

La inteligencia artificial y su impacto en la escritura académica

Julio Alonso Arévalo. La inteligencia artificial y su impacto en la escritura académica . BUCLE, 2024

La inteligencia artificial está teniendo un impacto significativo en la escritura académica al ofrecer herramientas y recursos que facilitan el proceso de investigación, redacción y edición de documentos. Mediante el uso de algoritmos avanzados, los sistemas de inteligencia artificial pueden analizar grandes cantidades de información, extraer patrones y generar ideas para el desarrollo de un texto académico. Estas herramientas pueden ayudar a los estudiantes y profesores a ahorrar tiempo y esfuerzo al proporcionar sugerencias de vocabulario, estructura de párrafos y citas bibliográficas adecuadas. Además, la inteligencia artificial también puede contribuir a mejorar la calidad de los escritos académicos, al detectar errores gramaticales y de estilo, así como proporcionar recomendaciones para una redacción más clara y coherente. Sin embargo, es importante tener en cuenta que la inteligencia artificial no debe reemplazar el pensamiento crítico y la creatividad inherentes a la escritura académica, sino que debe utilizarse como una herramienta complementaria para mejorar y enriquecer el proceso de escritura.

Solo el 3.2% de los PDFs de artículos científicos cumplen con los criterios de accesibilidad

Anukriti Kumar y Lucy Lu Wang, «Uncovering the New Accessibility Crisis in Scholarly PDFs», arXiv.org, 3 de octubre de 2024, https://arxiv.org/abs/2410.03022v1.

El estudio analiza un total de 20.000 PDFs académicos, tanto de acceso abierto como cerrado, publicados entre 2014 y 2023. Los autores evaluaron la conformidad de estos documentos utilizando seis criterios de accesibilidad: lenguaje predeterminado, anidamiento adecuado, etiquetado de PDF, encabezados de tabla, orden de tabulación y texto alternativo (alt-text). Para asegurar la precisión de los resultados, se combinaron evaluaciones automáticas y manuales, incluyendo la revisión de descripciones alternativas para imágenes y pruebas con lectores de pantalla.

Los resultados son alarmantes: solo el 3.2% de los PDFs cumplen con todos los criterios de accesibilidad evaluados, mientras que una gran mayoría (74.9%) no cumple con ninguno de ellos. Además, desde 2019 se ha observado una significativa disminución en la accesibilidad de los PDFs, especialmente en las publicaciones de acceso abierto. Esto sugiere que los esfuerzos por mejorar la accesibilidad no han tenido el impacto esperado y, en algunos casos, han retrocedido.

El estudio también identificó varios factores que contribuyen a esta crisis de accesibilidad, como las diferencias entre los campos de estudio, las plataformas utilizadas para crear los documentos y los modelos de publicación. Estas decisiones, tanto de los autores como de los editores, influyen directamente en la accesibilidad de los PDFs, lo que resalta la necesidad de abordar estos problemas desde un enfoque sistemático.

Portal de Producción Científica de la Universidad de Salamanca con Almudena Mangas Vega. Planeta Biblioteca 2024/10/01

Portal de Producción Científica de la Universidad de Salamanca con Almudena Mangas Vega.

Planeta Biblioteca 2024/10/01

ESCUCHAR

Descargar

Hemos conversado con Almudena Mangas Vega, responsable del Portal de Investigación de la Universidad de Salamanca (USAL), quien nos explicó la misión de este servicio, enfocado en gestionar y difundir la producción científica de los investigadores, incrementando su visibilidad y accesibilidad tanto en la comunidad académica como en la sociedad. El portal ofrece perfiles detallados de los investigadores, así como acceso a sus publicaciones y proyectos, además de herramientas que simplifican la publicación de trabajos, el seguimiento de su impacto y la colaboración científica. También garantiza la calidad y originalidad de las investigaciones mediante procesos de revisión y control, y maximiza su impacto utilizando redes académicas y estrategias de optimización en motores de búsqueda. Asimismo, proporciona acceso abierto a una gran cantidad de publicaciones y promueve la comunicación entre los investigadores y otros actores sociales, fortaleciendo la visibilidad de la investigación de la USAL.

El valor del mercado de revistas científicas es de 11.000 millones de dólares

Delta Think. “Total Value of Scholarly Journals Market.” Delta Think. Última modificación en 2024. https://deltathink.com/news-views-total-value-of-scholarly-journals-market/.

El mercado de revistas académicas está valorado en alrededor de 11.000 millones de dólares, con un crecimiento aproximado del 2.3% anual. Estas cifras son aproximadas, dada la falta de datos consistentes sobre el mercado. La proyección para 2024 es preliminar, y se actualizará una vez que se recopilen nuevos datos de los editores.

Delta Think realiza una encuesta anual entre editores para estimar los ingresos totales de las revistas académicas. Se toman decisiones pragmáticas sobre la definición y disponibilidad de información para crear una lista de revistas académicas reconocidas. Se utilizan diversas fuentes, como el Registro Noruego de Revistas Científicas y el Sello DOAJ, para depurar los datos.

Tras analizar los efectos de la inflación y los tipos de cambio, surgieron preguntas sobre el valor total del mercado de revistas académicas. El artículo responde a estas dudas con cifras actualizadas. Aunque originalmente el análisis se centraba en datos de acceso abierto (OA), también cubre todo el mercado de revistas académicas para entender mejor la proporción de OA frente a las publicaciones por suscripción.

El «mercado de revistas académicas» incluye todo el dinero gastado en revistas académicas, tanto por suscripción como en acceso abierto, excluyendo revistas comunitarias gestionadas por instituciones.

Se estima que el mercado tenía un valor de 10.700 millones de dólares en 2022, subiendo a 10.800 millones en 2023, con un crecimiento anual promedio de 2.3%. Después del crecimiento acelerado tras la pandemia, el 2023 representó una corrección. El valor proyectado para 2024 es de aproximadamente 11.000 millones de dólares.

Un análisis DAFO exhaustivo de la IA y la experiencia humana en la revisión por pares

Roohi Ghosh, «Strengths, Weaknesses, Opportunities, and Threats: A Comprehensive SWOT Analysis of AI and Human Expertise in Peer Review», The Scholarly Kitchen, 12 de septiembre de 2024, https://scholarlykistg.wpenginepowered.com/2024/09/12/strengths-weaknesses-opportunities-and-threats-a-comprehensive-swot-analysis-of-ai-and-human-expertise-in-peer-review/.

Roohi Ghosh aborda el papel de la revisión por pares en la era digital, especialmente a medida que se aproxima la Semana de la Revisión por Pares.

El auge del contenido generado por IA en revistas científicas plantea preguntas sobre la responsabilidad del proceso de revisión. La carga de trabajo de los revisores es abrumadora, con millones de artículos publicados cada año y un número limitado de revisores disponibles, quienes realizan este trabajo de manera voluntaria, a menudo en su tiempo libre.

Ghosh señala que la revisión por pares debe centrarse en fortalecer la ciencia, no en detectar contenido de IA. La expectativa de que los revisores busquen texto generado por IA desvía su atención de su verdadero objetivo, lo que diluye su experiencia. En lugar de añadir presión, la IA debería ser una herramienta que facilite el trabajo de los revisores.

Se plantean preguntas sobre cómo integrar herramientas de IA que puedan identificar contenido generado por IA antes de que los artículos lleguen a los revisores, permitiéndoles concentrarse en el contenido. También se sugiere que se debe ofrecer capacitación específica sobre el uso efectivo de estas herramientas y desarrollar un enfoque colaborativo entre revisores.

El análisis SWOT propone examinar las fortalezas, debilidades, oportunidades y amenazas tanto de la IA como de la experiencia humana en la revisión por pares. En lugar de culpar, se debe fomentar un diálogo sobre cómo utilizar la IA como un aliado en la preservación de la integridad de la investigación y replantear los roles dentro del proceso de revisión. La conversación debe cambiar de la culpa a la colaboración, reimaginando el futuro de la revisión por pares.

Uno de cada siete artículos científicos podría ser al menos parcialmente falso

James Heathers, «How much science is fake? approximate 1 in 7 Scientific Papers Are Fake», 22 de septiembre de 2024, https://doi.org/10.17605/OSF.IO/5RF2M.



Un nuevo análisis realizado por James Heathers sugiere que uno de cada siete artículos científicos podría ser al menos parcialmente falso. Este estudio, publicado el 24 de septiembre en el Open Science Framework antes de la revisión por pares, se basó en datos de 12 estudios previos que analizaron aproximadamente 75.000 artículos. Heathers critica la cifra del 2% de fraude que se ha citado desde un estudio de 2009, argumentando que está desactualizada.

En 2009, un estudio ampliamente citado reveló que alrededor del 2% de los científicos admitían haber falsificado, fabricado o modificado datos en algún momento de su carrera. Esta cifra ha sido utilizada con frecuencia para ilustrar el problema del fraude en la ciencia. Sin embargo, 15 años después, James Heathers, investigador afiliado en psicología en la Universidad Linnaeus de Växjö, Suecia, decidió cuestionar esa cifra y ofrecer una estimación más actualizada y precisa. En su nuevo análisis, publicado el 24 de septiembre en el Open Science Framework antes de la revisión por pares, Heathers sugiere que uno de cada siete artículos científicos puede ser al menos parcialmente falso.

Heathers, conocido por su labor como «detective científico», llegó a esta conclusión al promediar datos de 12 estudios existentes. Estos estudios, que abarcan áreas como las ciencias sociales, la medicina y la biología, analizaron alrededor de 75.000 artículos para estimar el volumen de trabajos problemáticos. A través de una combinación de herramientas en línea que detectan irregularidades, Heathers encontró una «similitud persistente» entre las estimaciones de estos estudios y concluyó que, en promedio, uno de cada siete trabajos presenta errores o fraudes significativos.

Críticas a las estimaciones anteriores

Heathers explica que la cifra del 2% de fraude que proviene del estudio de 2009 está desactualizada, ya que el último conjunto de datos utilizado en ese estudio proviene de 2005. Durante los últimos 20 años, el entorno académico ha cambiado significativamente, y Heathers considera que esta cifra ya no refleja adecuadamente la magnitud del problema actual. Además, critica los enfoques anteriores que se centraban en preguntar directamente a los científicos si habían participado en prácticas deshonestas, calificando este método como ineficaz y poco fiable.

«Heathers señala que es ingenuo preguntar a los investigadores que cometen fraude si admitirán sus malas prácticas. En su lugar, propone utilizar herramientas más objetivas y datos indirectos para medir la magnitud del problema.»

Un enfoque «salvajemente no sistemático»

El propio Heathers reconoce que su estudio es «salvajemente no sistemático», ya que los datos que utilizó provienen de múltiples áreas y metodologías, y no existe un análisis homogéneo o riguroso que abarque todo el problema. Aun así, justifica su enfoque argumentando que esperar los recursos necesarios para realizar un análisis exhaustivo y sistemático tomaría demasiado tiempo, y que es importante comenzar a abordar el problema con los datos disponibles.

A pesar de sus limitaciones, Heathers decidió realizar un meta-análisis, ya que las cifras disponibles sobre la cantidad de ciencia fraudulenta son escasas. A su juicio, aunque se realice una revisión sistemática más formal, es probable que los resultados no difieran significativamente de su estimación preliminar de que uno de cada siete artículos es falso.

Críticas de otros expertos

El estudio ha recibido críticas de algunos expertos en la comunidad científica. Daniele Fanelli, un metacientífico de la Universidad Heriot-Watt en Edimburgo, Escocia, y autor del estudio de 2009, no está convencido de los resultados del nuevo análisis. Fanelli sostiene que el estudio de Heathers mezcla estudios que miden diferentes fenómenos y utiliza metodologías distintas, lo que puede llevar a conclusiones erróneas. Para Fanelli, etiquetar cualquier estudio con algún problema como «falso» no es un enfoque riguroso y podría llevar a una interpretación distorsionada del alcance real del fraude en la ciencia.

Fanelli también expresó su preocupación de que el estudio pueda atraer atención negativa e innecesaria de los medios, lo cual podría afectar la percepción pública de la ciencia sin un beneficio tangible para el campo.

Por su parte, Gowri Gopalakrishna, epidemióloga de la Universidad de Maastricht en los Países Bajos, también expresó reservas sobre las conclusiones de Heathers. Gopalakrishna coautorizó un estudio en 2021 que encontró que el 8% de los investigadores en una encuesta de casi 7.000 científicos en los Países Bajos admitieron haber falsificado o fabricado datos entre 2017 y 2020. Sin embargo, Gopalakrishna cree que la prevalencia del fraude puede variar significativamente entre diferentes campos de estudio, y agrupar todas las disciplinas bajo una misma cifra podría ser poco útil y conducir a interpretaciones erróneas.

Una amenaza existencial para la ciencia

A pesar de las críticas, Heathers sostiene que el problema del fraude en la ciencia representa una amenaza existencial para el campo y debe abordarse de inmediato. Argumenta que los científicos, las instituciones científicas y los organismos de financiación deben reconocer la gravedad del problema y actuar en consecuencia. El hecho de que un número significativo de publicaciones científicas pueda estar contaminado por fraudes o errores serios socava la confianza en el proceso científico y pone en riesgo el progreso del conocimiento.

Heathers también destaca que el fraude en la ciencia está «crucialmente subfinanciado» en términos de investigación y vigilancia, lo que agrava el problema. Aunque su estudio no es exhaustivo, espera que su trabajo sirva como un primer paso para abordar una cuestión que ha sido pasada por alto durante demasiado tiempo.

Herramienta para evaluar la equidad en los modelos de comunicación académica

How Equitable Is It?. cOAlition S, Jisc y PLOS, 2024

Un nuevo instrumento en línea diseñado para evaluar la equidad en los modelos de comunicación académica se ha lanzado hoy en la conferencia OASPA 2024. La herramienta, llamada “How Equitable Is It” fue desarrollada por un Grupo de Trabajo multisectorial que incluye bibliotecarios, representantes de consorcios bibliotecarios, financiadores y editores. Este grupo fue convocado por cOAlition S, Jisc y PLOS.

La herramienta ofrece un marco para evaluar modelos y acuerdos de comunicación académica desde el eje de la equidad. Está dirigida a instituciones, consorcios bibliotecarios, financiadores y editores que invierten o reciben fondos para servicios de publicación. Los usuarios pueden calificar los modelos de comunicación académica según siete criterios clave:

  1. Acceso para leer
  2. Publicación en acceso abierto inmediato
  3. Maximización de la participación
  4. Derechos de reutilización
  5. Transparencia en precios y tarifas
  6. Promoción de prácticas de investigación abierta: datos y código
  7. Promoción de prácticas de investigación abierta: preprints y revisión abierta por pares

La herramienta permite a los usuarios calificar hasta qué punto el modelo que están evaluando facilita (o restringe) la participación equitativa en la difusión del conocimiento. Cada criterio se puntúa en una escala de «menos equitativo» a «más equitativo», resultando en una puntuación general de equidad y un resumen de las respuestas.

Actualmente, la versión de la herramienta está en fase beta y abierta a comentarios hasta el 28 de octubre de 2024. Los interesados pueden proporcionar su retroalimentación a través de un formulario en línea, y el Grupo de Trabajo revisará todas las sugerencias para publicar una versión revisada a principios de 2025.

Manual de indización en OJS: Buenas prácticas para la región latinoamericana (2ª ed.)

Manual de indización en OJS: Buenas prácticas para la región latinoamericana, 2a. ed. Universidad Nacional Autónoma de México, 2024

Texto completo

En 2020, la Universidad Nacional Autónoma de México asumió como proyecto institucional la creación de un grupo de expertos en metadatos e interoperabilidad de revistas científicas, su objetivo: desarrollar las directrices que guiarían la indización a nivel artículo de la publicación periódica en toda Latinoamérica y el Caribe. Tras dos años de diagnósticos en torno a la situación de las revistas que se editan en la región, nació el Grupo de interoperabilidad y visibilidad para las revistas científicas latinoamericanas, conformado por ocho universidades pertenecientes a la Red de Macrouniversidades de América Latina y el Caribe.

Con la publicación de este Manual de indización en OJS: Buenas prácticas para la región latinoamericana, el Grupo ratifica su compromiso con la expansión y visibilidad de la ciencia que se produce en nuestra región, cuyo contenido comprende las especificaciones mínimas que todo equipo editorial debe tener en cuenta al momento de registrar los datos bibliográficos de cada artículo que será publicado a través de las plataformas Open Journal System (OJS). Para su elaboración, se han tenido en cuenta los OpenAIRE Guidelines for Literature Repositories v. 3, la versión consolidada de las ISBD: Descripción Bibliográfica Internacional Normalizada y el Manual de indización para las bases de datos CLASE y PERIÓDICA.

Las instrucciones contenidas en este manual buscan garantizar la calidad de los metadatos que serán depositados en los índices tradicionales como Web of Science y los de nueva generación, a saber: Dimensions o SciLit; así como en el distribuidor líder del DOI, Crossref. Se pone a disposición un manual sencillo, rápido de consultar y entender, por lo que las instrucciones son muy puntuales y se acompañan por ilustraciones que le muestran al indizador los espacios de la interfaz de OJS 3.0 (y versiones posteriores) donde se registran los metadatos.

Deseamos que este documento se convierta en una herramienta de amplia consulta en nuestra región, sea objeto de debates y mejoras y, sobre todo, que ayude a catapultar la presencia de nuestras revistas científicas en todo el espacio Web.