Archivo de la etiqueta: Impacto

¿Existe consenso entre los investigadores sobre en que revistas publicar sus trabajos?

Van Buskirk, Ian, Marilena Hohmann, Ekaterina Landgren, Johan Ugander, Aaron Clauset y Daniel B. Larremore. Consensus and Fragmentation in Academic Publication Preferences. arXiv:2603.00807v1 [cs.DL], 28 de febrero de 2026

Este trabajo analiza cómo los investigadores toman decisiones sobre dónde publicar sus trabajos científicos y hasta qué punto existen patrones de consenso o, por el contrario, fragmentación dentro de las comunidades académicas.

Los autores parten de la premisa de que la elección de la revista o del canal de publicación no es un proceso puramente individual, sino que refleja dinámicas colectivas dentro de cada disciplina científica. Estas decisiones están influenciadas por múltiples factores —prestigio de las revistas, redes académicas, incentivos institucionales o visibilidad— y, en conjunto, configuran un sistema complejo de preferencias compartidas que puede ser estudiado mediante herramientas de análisis de redes y ciencia de datos. El objetivo central del artículo es identificar si las comunidades científicas muestran patrones claros de acuerdo sobre qué revistas son más relevantes o si, por el contrario, el sistema editorial está caracterizado por una pluralidad de preferencias que fragmenta el espacio de publicación.

Para abordar esta cuestión, los autores desarrollan un enfoque cuantitativo que combina datos de publicaciones académicas con modelos de redes y análisis estadístico. A partir de estos datos reconstruyen un mapa de las preferencias de publicación de los investigadores, observando cómo los científicos de distintas áreas tienden a concentrar sus envíos en determinados grupos de revistas. Este enfoque permite detectar estructuras emergentes en el sistema editorial: por un lado, núcleos de consenso donde muchos investigadores convergen en un pequeño conjunto de revistas consideradas centrales; y por otro, regiones de fragmentación en las que las preferencias se dispersan entre múltiples opciones. El análisis muestra que estas estructuras no son uniformes en todas las disciplinas: algunas comunidades presentan jerarquías editoriales muy claras, mientras que otras exhiben una distribución más diversificada de canales de publicación.

Uno de los hallazgos más relevantes del estudio es que el sistema de publicación científica funciona como una red de coordinación social. Las decisiones individuales de los investigadores están influidas por lo que hacen sus pares, lo que genera dinámicas colectivas de imitación, reputación y señalización. Publicar en determinadas revistas actúa como una señal de calidad y legitimidad dentro de la comunidad científica, lo que refuerza la concentración de envíos en ciertos títulos. Sin embargo, esta dinámica también puede producir fragmentación cuando diferentes subcomunidades científicas desarrollan sus propios circuitos editoriales o cuando emergen nuevas revistas y plataformas que compiten con las tradicionales. De este modo, el sistema editorial no es completamente centralizado ni completamente disperso, sino que presenta una estructura híbrida caracterizada por clusters o comunidades de publicación.

El artículo también examina las implicaciones de estos patrones para la evaluación científica y la difusión del conocimiento. Cuando existe un fuerte consenso en torno a unas pocas revistas, estas adquieren un poder simbólico considerable, lo que puede reforzar desigualdades en la visibilidad de la investigación y consolidar jerarquías académicas. Por el contrario, una mayor fragmentación puede favorecer la diversidad de enfoques y la aparición de nuevos espacios de comunicación científica, aunque también puede dificultar la identificación de estándares comunes de calidad. En este sentido, el estudio sugiere que comprender la estructura de preferencias de publicación es fundamental para analizar fenómenos como la concentración editorial, la influencia de los rankings de revistas o el impacto de políticas de ciencia abierta.

Finalmente, los autores destacan que su enfoque ofrece una nueva perspectiva cuantitativa para estudiar el ecosistema de la publicación científica, integrando métodos de análisis de redes, ciencia computacional y sociología de la ciencia. Este tipo de análisis permite comprender mejor cómo se forman los consensos en torno a determinadas revistas, cómo surgen nichos editoriales especializados y cómo evolucionan las comunidades científicas a lo largo del tiempo. En última instancia, el estudio aporta evidencia empírica sobre las dinámicas colectivas que subyacen a la comunicación académica y abre nuevas líneas de investigación sobre la gobernanza del sistema de publicación científica, especialmente en un contexto marcado por la expansión del acceso abierto, la proliferación de nuevas revistas y los cambios en los mecanismos de evaluación de la investigación.

La persistente influencia del factor de impacto en la evaluación científica

Grove, Jack. “Journal Impact Factors Still Exert ‘Undue Influence’, Finds PLOS Study.” Times Higher Education, 2 de febrero de 2026.

Leer artículo original

El artículo analiza el papel que sigue desempeñando el factor de impacto de las revistas en los procesos de evaluación académica, a pesar de las numerosas críticas que ha recibido en los últimos años.

Un estudio reciente basado en una encuesta a casi quinientos investigadores del ámbito de la biología —todos ellos participantes recientes en comités de evaluación de proyectos o en procesos de contratación y promoción académica— revela que los evaluadores continúan recurriendo de forma habitual a indicadores externos como la reputación de la revista o el propio factor de impacto para valorar la calidad y credibilidad de la investigación. En concreto, el 57 % de los encuestados afirmó utilizar al menos uno de estos indicadores para juzgar si un trabajo científico es fiable, lo que evidencia que la reputación editorial sigue funcionando como un atajo cognitivo en la toma de decisiones académicas.

Entre los distintos indicadores considerados, la reputación de la revista aparece como el criterio más utilizado para evaluar la credibilidad de los resultados científicos, seguido por la reputación del laboratorio o del grupo de investigación. El factor de impacto, aunque menos empleado directamente, continúa desempeñando un papel significativo: alrededor del 19 % de los investigadores lo utiliza para valorar la credibilidad de un artículo y un 15 % para juzgar su fiabilidad. Sin embargo, diversos estudios han demostrado que este indicador es un predictor pobre de la calidad real de un artículo individual, ya que mide el promedio de citas de una revista y no el valor específico de cada trabajo publicado en ella.

Dado que el 90 % de los encuestados afirmó que la evaluación de los resultados de investigación es importante para las decisiones de los comités, pero menos de la mitad dijo estar satisfecha con el conjunto de métricas disponibles, el estudio sostiene que existe “un amplio margen de oportunidad para proporcionar nuevas señales de credibilidad y fiabilidad”

El artículo recuerda que desde hace más de una década existen iniciativas internacionales que buscan limitar el uso del factor de impacto en la evaluación científica. Un ejemplo destacado es la Declaración de San Francisco sobre Evaluación de la Investigación (DORA), que recomienda explícitamente no emplear el JIF en decisiones relacionadas con financiación, contratación o promoción académica. A pesar de estas recomendaciones, el estudio sugiere que la persistencia de este indicador se debe en gran medida a la falta de alternativas claras y aceptadas para evaluar la calidad intrínseca de los trabajos científicos.

Así, los autores del estudio sostienen que existe una demanda creciente entre los evaluadores de nuevos indicadores que reflejen mejor la integridad, la transparencia y el rigor metodológico de la investigación. Entre las posibles señales de calidad se mencionan prácticas de ciencia abierta como la disponibilidad de datos, código o protocolos, así como mecanismos que permitan evaluar la reproducibilidad y la integridad de los resultados. La investigación concluye que mejorar estos “indicadores de credibilidad” podría contribuir a reducir la dependencia de métricas simplificadoras como el factor de impacto y favorecer evaluaciones más justas y rigurosas de la producción científica.

Gestión de la comunicación científica: 25 ideas para mejorar tu investigación

Noguera-Vivo, J.M. [José Manuel]. (2022). Gestión de la comunicación científica: 25 ideas para mejorar tu investigación. Editorial UOC.

Texto completo

Comunicar con éxito no es un talento reservado para unos pocos, sino una destreza que se aprende. Y la comunicación es una parte inherente a cualquier investigación, sea cual sea la fase en la que se encuentre el autor (grado, máster, doctorando o investigador consolidado). Comunicar correctamente un trabajo científico influye en su credibilidad, su alcance o sus posibilidades de obtener financiación, ya que determinará el grado de percepción de su utilidad. En este libro, el autor comparte consejos prácticos para que lleves a otro nivel tu investigación gracias a una comunicación óptima.

Tendencias clave (2015–2025) de los investigadores más citados según Clarivate: evolución global de la excelencia científica

Fry, Ryan. “Highly Cited Researchers: Key Trends 2015–2025.Clarivate – The Institute for Scientific Information. Accedido el 27 de febrero de 2026. https://clarivate.com/academia-government/the-institute-for-scientific-information/highly-cited-researchers-key-trends-2015-2025

Entre 2015 y 2025, el programa de Highly Cited Researchers (Investigadores Altamente Citados) de Clarivate Analytics, gestionado por el Institute for Scientific Information (ISI), ha registrado una década de transformaciones y patrones significativos en la producción científica global.

Esta iniciativa, que identifica a investigadores con impacto excepcional al seleccionar a las voces científicas más citadas en la base de datos de Web of Science, ha generado datos que permiten analizar cómo se redistribuye la influencia científica entre países, regiones y ámbitos disciplinarios. La información se presenta en un panel interactivo de datos que refleja tanto cambios cuantitativos —número de investigadores altamente citados por país y por campo— como cualitativos, con una evolución metodológica de la propia selección y depuración de la lista durante el período 2015–2025.

Un hallazgo central de este análisis es la persistente preeminencia de Estados Unidos como líder en número y participación de investigadores altamente citados, aunque esta hegemonía muestra matices cuando se observan campos específicos y el crecimiento de otras regiones. Mientras Estados Unidos mantiene su dominio global, China continental ha experimentado un crecimiento explosivo en reconocimiento científico, alcanzando liderazgo en disciplinas como Química, Informática, Ingeniería y Ciencia de Materiales, áreas que anteriormente estaban dominadas por EE. UU. El aumento de China en estas categorías refleja no solo un repunte en producción científica, sino también una estrategia sostenida de inversión en investigación y desarrollo que ha alterado la distribución tradicional del impacto académico. A su vez, otras regiones como Hong Kong, Singapur y varios países europeos (por ejemplo, Suecia, Bélgica, Noruega) han triplicado el número de investigadores en estas listas, lo que indica una diversificación geográfica del reconocimiento científico global.

Además de estos patrones cuantitativos, el análisis de Clarivate pone en contexto cambios metodológicos y criterios de selección que afectan cómo se construye la lista de investigadores altamente citados. A lo largo de la última década, el ISI ha ido introduciendo filtros y ajustes para mejorar la integridad del proceso, respondiendo a preocupaciones sobre prácticas como la autocitación excesiva o la proliferación de publicaciones con un número atípico de artículos por autor. La versión renovada de 2025 recoge estos ajustes, que buscan asegurar que los investigadores incluidos reflejen un impacto amplio y sostenible en sus campos. Este enfoque no solo fortalece la credibilidad de la lista, sino que también ofrece una mirada más matizada sobre qué constituye una contribución científica significativa en el contexto contemporáneo.

En síntesis, el análisis de Clarivate para 2015–2025 no solo traza la trayectoria de investigadores de alto impacto, sino que también funciona como un barómetro de la evolución del paisaje científico global: revela cómo se reconfigura la distribución geográfica del talento investigativo, la importancia de disciplinas emergentes y la necesidad de metodologías más rigurosas que consideren tanto métricas bibliométricas como evaluaciones cualitativas. Este conjunto de tendencias proporciona a universidades, gobiernos y organismos académicos un recurso informativo para comprender mejor los centros de excelencia científica y para orientar políticas de investigación e innovación a gran escala.

Aspectos clave:

  1. Liderazgo global y redistribución geográfica

Estados Unidos sigue siendo el país con mayor número de investigadores altamente citados, manteniendo su hegemonía en la mayoría de disciplinas.

China ha experimentado un crecimiento sostenido, convirtiéndose en líder en áreas como Química, Ingeniería, Informática y Ciencia de Materiales.

Otras regiones con aumento notable incluyen Hong Kong, Singapur y varios países europeos (Suecia, Bélgica, Noruega), mostrando una diversificación del talento científico a nivel global.

  1. Transformaciones por disciplina

Los investigadores altamente citados se concentran en disciplinas STEM (Ciencia, Tecnología, Ingeniería y Matemáticas), pero también se observa crecimiento en áreas de ciencias sociales y salud.

Campos emergentes o estratégicos (por ejemplo, inteligencia artificial y biotecnología) muestran alta citación rápida, reflejando la rapidez con que ciertas áreas pueden impactar la comunidad científica global.

  1. Cambios metodológicos y calidad de la selección

Clarivate ha ajustado sus criterios para reducir sesgos por autocitación y publicaciones infladas, asegurando que la lista refleje un impacto real y sostenido.

La metodología ahora enfatiza tanto la cantidad de citas como la influencia transversal en la disciplina, haciendo la lista más confiable y representativa.

  1. Tendencias de colaboración y movilidad científica

Se observa un incremento en la colaboración internacional, lo que amplifica la visibilidad de ciertos investigadores.

La movilidad académica (entre universidades y países) se refleja en la distribución de investigadores citados, señalando cómo las instituciones pueden atraer talento global.

  1. Implicaciones estratégicas para políticas de investigación

Los datos permiten a gobiernos y universidades identificar centros de excelencia científica, priorizar áreas de inversión y diseñar políticas de I+D que fomenten impacto y visibilidad global.

La lista sirve como indicador de competitividad científica, ofreciendo información útil para decisiones sobre financiamiento, colaboración y desarrollo de infraestructuras de investigación.

Adiós a Elsevier y Clarivate: OpenAlex y la nueva era de la ciencia abierta

Winemiller, Sam. 2026. OpenAlex and Values‑Aligned Tools. ACRLog, 26 de enero de 2026. https://acrlog.org/2026/01/26/openalex-and-values-aligned-tools/

Se hace una llamada a la comunidad académica y bibliotecaria para cuestionar la hegemonía de herramientas comerciales en la evaluación científica y abrazar alternativas abiertas como OpenAlex —no solo por su utilidad técnica, sino también por su potencial para reflejar y reforzar valores compartidos de acceso abierto, inclusión y control comunitario sobre las infraestructuras que sostienen el conocimiento global.

La academia necesita desvincular de las entidades corporativas nuestra capacidad para comprender y evaluar la actividad académica. Compañías como Elsevier y Clarivate han integrado efectivamente métodos de evaluación en la academia que dependen de sus herramientas propietarias (Scopus y SciVal; Web of Science y Journal Citation Reports e InCites, respectivamente). De manera conveniente, estos productos también emiten juicios sobre la “legitimidad” de los lugares de publicación académica y sobre si son valiosos como líneas dentro de un expediente de promoción o para decisiones de suscripción bibliotecaria, lo que plantea preguntas sobre posibles conflictos de interés. Uno podría suponer que las revistas propiedad de Elsevier rara vez se excluyen del corpus de Scopus, por ejemplo.

La necesidad de separar la indexación y evaluación de la actividad académica del control corporativo coincide con la necesidad de recuperar cierto grado de control sobre todo el sistema de publicación académica. Un camino posible sería un cambio significativo hacia espacios gestionados por instituciones académicas, sociedades científicas o alianzas académicas, en lugar de editores con fines de lucro; sin embargo, un obstáculo básico para este cambio es la indexación inconsistente e incompleta de dichos espacios en gráficos de conocimiento científico como Scopus y Web of Science. En su reciente artículo sobre el tema, Nazarovets et al. (2026) concluyen con esta sugerencia: “…la visibilidad desigual de las UJs [revistas universitarias] resalta un punto ciego estructural en la evaluación global de la investigación: a menos que infraestructuras más inclusivas como DOAJ y OpenAlex sean ampliamente reconocidas y mejoradas en cuanto a cobertura y fiabilidad de metadatos, grandes partes de la producción académica permanecerán invisibles incluso si se decide abandonar WoS [Web of Science] y Scopus.” Este es solo uno de los posibles beneficios de invertir en infraestructura abierta como OpenAlex (tal como lo recomienda la UNESCO). La infraestructura abierta puede definirse como herramientas y recursos fundamentales, gratuitos, sobre los cuales se puede realizar, compartir y explorar la ciencia y la investigación abierta.

Para quienes no estén familiarizados con OpenAlex, es esencialmente una gran base de datos de trabajos académicos y metadatos relacionados. OpenAlex se centra en la inclusión amplia de trabajos académicos, en contraste con la “curaduría” de fuentes legítimas practicada por servicios propietarios. Posee una interfaz web y puede consultarse mediante API, pero en esencia es una infraestructura dedicada al dominio público a través de la licencia CC0, mantenida activamente por una organización sin fines de lucro (501(c)3). Por supuesto, depender de datos de citas reportados por los editores puede ser cuestionable, pero mientras trabajamos en reconocer y recompensar otros tipos de evidencia sobre el impacto de la investigación, al menos podemos usar datos de citas lo más completos posibles.

¿Es OpenAlex tan bueno como sus competidores? Según mi experiencia, suele ser igual o mejor para la mayoría de propósitos, como generar listas de publicaciones de autores, incluyendo preprints, o analizar tendencias de publicación en acceso abierto de una institución a lo largo del tiempo. La mayoría de quienes lo han explorado a fondo parecen coincidir. Culbert et al. (2024) analizaron la cobertura de referencias de OpenAlex en comparación con Web of Science y Scopus, encontrándola “comparable”, incluso antes de las recientes mejoras de OpenAlex, que incluyeron más de 50 millones de trabajos nuevos. En una revisión de Katina, Ho (2025) calificó a OpenAlex como “…una alternativa prometedora y fiable a las bases de datos de citas tradicionales por suscripción para investigadores, administradores universitarios, instituciones de investigación y organismos gubernamentales interesados en actividades de investigación y colaboraciones potenciales.” Otras herramientas de descubrimiento académico, como Overton, utilizan OpenAlex como fuente de datos fundamental.

Cada persona necesitará probarlo para evaluar si su usabilidad cumple con sus estándares, pero para quienes dudan, basta considerar que el simple uso de estas herramientas puede ser una pequeña contribución hacia un futuro diferente para la infraestructura de investigación. Los coordinadores involucrados en la Declaración de Barcelona sobre Información de Investigación Abierta comentaron sobre el compromiso de la declaración de apoyar infraestructuras para información de investigación abierta:

“Lo que creemos importante para las organizaciones es asumir seriamente su responsabilidad de apoyar estas infraestructuras, las cuales solo pueden existir y desarrollarse si son usadas y apoyadas. Esto incluye apoyo financiero, pero también puede involucrar participación en la gobernanza y contribuciones en especie, como aportar datos y mejorar su calidad. En cuanto a las contribuciones financieras, la Universidad de la Sorbona es un gran ejemplo: cuando se dieron de baja de Web of Science, redirigieron parte de ese presupuesto a apoyar OpenAlex. En general, abogamos por hacer de las inversiones en infraestructura abierta una parte integral de los presupuestos institucionales.”

Para muchos en bibliotecas universitarias, no contamos con recursos significativos para invertir o desinvertir, aunque votar con nuestro dinero sigue siendo una opción si tenemos autorización para hacerlo. Sin embargo, lo que sí está dentro de nuestro ámbito de influencia es aprender sobre infraestructura alineada con valores y usarla, aprovechando nuestras posiciones como profesionales de la información para enseñar y motivar a otros a usar infraestructura alineada con valores. En mi institución, hemos empezado con proyectos pequeños, como integrar OpenAlex en nuestra plataforma local de perfiles académicos y trabajar para añadir nuestro repositorio institucional como fuente de datos para OpenAlex. Ya sea OpenAlex u otra herramienta alineada con valores, podemos “votar” con nuestro uso como un pequeño acto diario de apoyo o resistencia. Enseñando sobre estas herramientas, pequeños actos individuales se convierten en poder colectivo.

Potencial de la inteligencia artificial para acelerar el impacto de la investigación en el mundo real

Higher Education Policy Institute (HEPI) & Taylor & Francis (8 de enero de 2026). Using Artificial Intelligence (AI) to Advance Translational Research (HEPI Policy Note 67). Disponible en HEPI Insights

Texto completo

El informe analiza de manera exhaustiva cómo la inteligencia artificial puede transformar el proceso de investigación académica para acelerar su impacto en el mundo real, especialmente en lo que se conoce como investigación traslacional, es decir, la que busca convertir descubrimientos científicos en aplicaciones prácticas y beneficios tangibles para la sociedad.

Un nuevo informe elaborado por HEPI y Taylor & Francis explora el potencial de la inteligencia artificial (IA) para impulsar la investigación traslacional y acelerar el camino que va desde el descubrimiento científico hasta su aplicación práctica en la sociedad.

Using Artificial Intelligence (AI) to Advance Translational Research (Nota de política HEPI n.º 67), elaborado por Rose Stephenson, directora de Política y Estrategia de HEPI, y Lan Murdock, directora sénior de Comunicación Corporativa en Taylor & Francis, se basa en los debates mantenidos en una mesa redonda con responsables del ámbito de la educación superior, investigadores, innovadores en IA y organismos financiadores, así como en una serie de estudios de caso de investigación, para evaluar el papel futuro de la IA en la investigación traslacional.

Principales conclusiones

El informe concluye que la IA tiene el potencial de reforzar el sistema de investigación traslacional del Reino Unido, pero que la materialización de estos beneficios requerirá una implementación cuidadosa, una gobernanza adecuada y una inversión sostenida.

Entre las principales conclusiones se incluyen las siguientes:

  • La IA podría acelerar la investigación traslacional al permitir un análisis más rápido de grandes y complejos conjuntos de datos, apoyar la síntesis del conocimiento y mejorar los vínculos entre disciplinas. Sin embargo, la disponibilidad y la calidad de estos conjuntos de datos siguen siendo desiguales, lo que limita en algunos ámbitos la capacidad de las herramientas de IA para apoyar la traducción de la investigación.
  • El acceso a competencias y experiencia en IA es cada vez más importante, y la integración de estas capacidades en marcos interdisciplinarios será un componente clave para impulsar la investigación traslacional.
  • La IA puede mejorar la accesibilidad y la visibilidad de la investigación, entre otras cosas mediante resúmenes en lenguaje claro, sistemas de búsqueda semántica (funciones de búsqueda que utilizan conceptos e ideas, y no solo palabras clave, ofreciendo resultados más precisos) y nuevos formatos dirigidos a públicos más allá del ámbito académico.
  • Existen riesgos claros asociados al uso de la IA, incluidos los desafíos relacionados con la reproducibilidad, los sesgos, la pérdida de competencias, la integridad académica, la propiedad intelectual y la rendición de cuentas.

Recomendaciones

Para garantizar que la IA respalde una investigación traslacional de alta calidad y realizada de manera responsable, el informe formula una serie de recomendaciones dirigidas a organismos financiadores de la investigación, instituciones y editoriales, entre las que se incluyen:

  • Establecer expectativas claras para el uso responsable de la IA, incluida su alineación con orientaciones como Embracing AI with Integrity de la UK Research Integrity Office.
  • Invertir en una IA fiable y ética, incluyendo acciones para mejorar la transparencia, reducir los sesgos y apoyar la reproducibilidad.
  • Reforzar el apoyo a la investigación interdisciplinaria, con un mayor reconocimiento del trabajo en equipo y vías más claras para acceder a conocimientos y experiencia en IA.
  • Apoyar infraestructuras compartidas y abiertas de investigación en IA para reducir duplicidades y facilitar que las herramientas desarrolladas por investigadores estén disponibles de forma más amplia.
  • Fomentar el intercambio y la reutilización de datos, junto con la inversión en infraestructuras que permitan un acceso seguro y responsable a los datos.

Rose Stephenson, directora de Política y Estrategia de HEPI y coautora del informe, afirmó: «El Reino Unido cuenta con fortalezas extraordinarias en investigación, pero demasiadas ideas tienen dificultades para recorrer el camino desde el descubrimiento hasta su uso en el mundo real. La IA tiene el potencial de apoyar este proceso acelerando el análisis, conectando disciplinas y mejorando el acceso a la investigación. Sin embargo, estos beneficios solo se harán realidad si la IA se utiliza de manera transparente, ética y de formas que refuercen, en lugar de sustituir, la experiencia humana».

Por su parte, Rebecca Lawrence, vicepresidenta de Traducción del Conocimiento en Taylor & Francis, señaló: «Estamos muy agradecidos a todos los participantes de la mesa redonda y a quienes compartieron aportaciones para los estudios de caso. Los valiosos debates y el proceso posterior de elaboración de la nota de política han puesto de relieve los beneficios de trabajar de manera colectiva para aprovechar el poder y las oportunidades que puede ofrecer el uso responsable de la IA en la investigación traslacional».

Mediante la inversión en conocimiento interdisciplinario, gobernanza ética e infraestructuras, las partes interesadas pueden contribuir a transformar la investigación traslacional y permitir que un mayor número de investigaciones recientes genere beneficios sociales significativos.

Valor de los metadatos para los datos de investigación

Strecker, Dorothea (2025). How permanent are metadata for research data? Understanding changes in DataCite metadata. arXiv:2412.05128v2 (13 de diciembre de 2025)

Texto completo

El artículo analiza en profundidad hasta qué punto los metadatos de los datos de investigación pueden considerarse permanentes una vez que se les asigna un identificador persistente (DOI) a través de DataCite. En el contexto de la ciencia abierta, los metadatos son fundamentales porque permiten que los conjuntos de datos sean localizables, accesibles, interpretables y reutilizables. Sin embargo, a diferencia de los catálogos bibliotecarios tradicionales, los metadatos de los datos de investigación se crean y mantienen en entornos muy diversos, con prácticas desiguales y, en muchos casos, con un mantenimiento limitado a lo largo del tiempo. El estudio parte de la hipótesis de que, aunque los DOIs están pensados para ser persistentes, los metadatos que los acompañan pueden cambiar de forma significativa después de su publicación inicial.

Para examinar esta cuestión, el trabajo se centra en el análisis de millones de registros de metadatos asociados a conjuntos de datos publicados en 2021, observando su evolución durante los dos años siguientes. El enfoque metodológico se basa en el uso de información de procedencia de metadatos, lo que permite identificar qué elementos cambian, con qué frecuencia y en qué momento. Este enfoque empírico aporta una visión poco habitual en los estudios sobre metadatos, ya que no se limita a evaluar la calidad en un momento concreto, sino que estudia los cambios a lo largo del tiempo.

Los resultados muestran que la mayoría de los metadatos permanecen estables, lo que indica que, en términos generales, pueden considerarse suficientemente fiables para tareas como análisis bibliométricos o estudios de infraestructura científica. No obstante, una proporción relevante de registros sí experimenta modificaciones. Estas modificaciones suelen ser incrementales y puntuales, y afectan sobre todo a elementos como los nombres de los creadores, las descripciones del conjunto de datos o la incorporación de identificadores relacionados. En cambio, otros campos clave —como el título o el año de publicación— rara vez se modifican, lo que refuerza la idea de una estructura básica bastante fija.

El análisis temporal revela que los cambios se concentran en las primeras fases tras la publicación del DOI, lo que sugiere que muchos ajustes responden a correcciones o mejoras iniciales más que a un mantenimiento continuo a largo plazo. Además, el estudio detecta diferencias notables entre repositorios, lo que indica que no existe una práctica homogénea en la gestión de metadatos: algunos repositorios tienden a revisar y actualizar más sus registros, mientras que otros apenas los modifican una vez publicados.

En la discusión, el artículo plantea una reflexión crítica sobre el concepto de “permanencia” aplicado a los metadatos. Aunque estos son relativamente estables, no muestran una evolución sostenida que acompañe el ciclo de vida completo de los datos de investigación. Esto limita su potencial para reflejar nuevos usos, citas, relaciones o contextos científicos emergentes. El trabajo sugiere que, para mejorar la reutilización y el valor a largo plazo de los datos, sería necesario repensar las políticas y prácticas de mantenimiento de metadatos, promoviendo una actualización más activa y coherente.

Los investigadores creen que su institución valora más la publicación en revistas muy citadas que el impacto real que pueda tener un trabajo.

Grove, Jack. (2025, 12 de diciembre). Policy Impact Undervalued by Universities, Social Scientists Say. Inside Higher Ed. Recuperado de https://www.insidehighered.com/news/faculty-issues/research/2025/12/12/social-scientists-policy-impact-undervalued-universities

Los resultados reflejan que las universidades tienden a valorar más las publicaciones en revistas altamente citadas y otras métricas tradicionales de prestigio académico, como el recuento de citas o factores de impacto, antes que evaluar el impacto real de la investigación en la formulación de políticas o cambios sociales tangibles.

Encuesta global realizada por Sage entre más de 1 800 científicos sociales de 92 países, centrada en entender cómo perciben la valoración que sus universidades otorgan al impacto de su investigación en la sociedad y las políticas públicas. Según los datos del sondeo, solo alrededor de un tercio de los participantes considera que su institución los promovería o les daría valor por el impacto de su trabajo fuera del ámbito académico, lo que indica una desconexión entre las aspiraciones de estos investigadores y las prioridades institucionales.

En el estudio, el 92 % de los encuestados afirmó que para ellos el objetivo principal de la investigación es contribuir positivamente a la sociedad, pero solo el 68 % cree que esto sea una meta compartida por sus instituciones. Asimismo, un porcentaje similar percibe que los líderes universitarios no valoran plenamente la utilidad social de su trabajo, lo que sugiere que las prácticas de evaluación académica actuales aún están ancladas en métricas internas y tradicionales, dejando fuera dimensiones más abiertas o aplicadas del impacto científico. Cuando se les preguntó si su institución promocionaría o concedería la titularidad a un académico por sus esfuerzos por aplicar la investigación fuera del ámbito académico, solo el 37 % de los 1805 científicos sociales encuestados por Sage respondió afirmativamente.

Los datos también muestran que solo un 28 % de los científicos sociales opina que sus esfuerzos por influir en políticas públicas podrían traducirse en más financiación de investigación, y apenas un 35 % afirma que su universidad ofrece premios o reconocimiento explícito por el impacto fuera de la academia. Además, un 30 % de los encuestados declaró no recibir ningún tipo de reconocimiento por este tipo de trabajo, lo que pone en evidencia una brecha entre el compromiso de los científicos sociales con la relevancia de su investigación y las prácticas de recompensa institucional.

Del mismo modo, el 91 % de los investigadores está de acuerdo en que el objetivo final de la investigación es ampliar la bibliografía y facilitar futuras investigaciones, pero solo el 71 % cree que los responsables de su institución están de acuerdo con esto.

En conjunto, este artículo sugiere que, aunque los investigadores ven la contribución al bien público y a la toma de decisiones informadas como una parte esencial de su labor, el ecosistema académico permanece predominantemente orientado hacia la producción y citación de literatura especializada, con menor énfasis en la aplicación de conocimientos para abordar problemas sociales o influir en políticas. Esto plantea preguntas importantes sobre cómo las universidades podrían replantear sus criterios de evaluación y promoción profesional para reconocer y fomentar formas de investigación que conecten más directamente con desafíos sociales reales.

Esa percepción de desajuste entre la motivación de los científicos sociales y las instituciones debería llevar a replantearse si las métricas de prestigio utilizadas en el mundo académico están desajustadas con los valores, argumenta el informe de Sage.

Transformando la evaluación científica en las políticas de Ciencia, Tecnología e Innovación (CTI) de América Latina y el Caribe. Un estudio desde la altmetría

Calisto-Breiding, C., Peña-Pallauta, P. & Arellano-Rojas, P. (2021). Transformando la evaluación científica en las políticas de Ciencia, Tecnología e Innovación (CTI) de América Latina y el Caribe. Un estudio desde la altmetría. Información, Cultura y Sociedad, 45, 75–94. DOI: 10.34096/ics.i45.10075

El presente artículo estudia los significados que la comunidad científica internacional atribuye a las altmetrics como instrumentos de evaluación científica y componentes de una futura Política de Ciencia, Tecnología e Innovación (CTI) en Latinoamérica. Se aplica una metodología cualitativa de tipo descriptiva y se recoge la información mediante entrevistas semiestructuradas realizadas a investigadores de Chile, Argentina, Perú, Colombia, España y Estados Unidos, expertos en altmetría, métricas de información y/o políticas de información. Los resultados arrojan que las altmetrics fortalecen su valor analizándose junto a otros indicadores, ya que no miden por sí solas el impacto o calidad de la investigación, pero aportan noveles y relevantes datos de rápida acumulación, amplio alcance disciplinar y diverso origen, promoviendo el uso de nuevos canales de comunicación científica. Algunos de los indicadores altmétricos más provechosos, son las menciones en políticas públicas, en patentes de invención y en plataformas sociales de alto uso en la región, como Facebook, Twitter y Mendeley; indicadores de vinculación con el entorno, revisión por pares y otros criterios cualitativos también son relevantes. Se recomienda integrar los criterios cuantitativos y cualitativos en las políticas de CTI latinoamericanas, las cuales deben, además, ajustarse a las realidades y presupuestos locales.

Optimización para motores de IA: cómo Mejorar la visibilidad y las citaciones de tu contenido

Search Engine Journal. “A Step‑By‑Step AEO Guide For Growing AI Citations & Visibility.Search Engine Journal, 15 de noviembre de 2023. https://www.searchenginejournal.com/aeo-guide-seo-visibility-tac-spa/559880/

Se aborda la creciente importancia de optimizar contenidos no solo para los buscadores tradicionales, sino también para los sistemas de inteligencia artificial (IA), como ChatGPT, Perplexity o Claude. Estos motores de IA utilizan la web para entrenar sus modelos y para generar respuestas en tiempo real, por lo que lograr que tu contenido sea rastreado y citado por ellos se está convirtiendo en un factor clave para aumentar la visibilidad online.

Para abordar este reto, se propone un enfoque estructurado llamado Answer Engine Optimization (AEO). Este enfoque consiste en entender cómo los crawlers de IA interactúan con tu sitio y, a partir de esos datos, optimizar el contenido. Los pasos principales incluyen: analizar los logs del servidor para identificar qué bots visitan qué páginas, monitorizar la actividad con herramientas específicas y analizar qué tipo de contenido atrae más a los crawlers.

Los crawlers de IA son bots desarrollados por empresas de inteligencia artificial que navegan por la web para recopilar datos. Algunos de los más relevantes son GPTBot (OpenAI), PerplexityBot y ClaudeBot. Su función principal es recoger información para entrenar los modelos y recuperar contenido en tiempo real para responder preguntas de usuarios. Por ello, que tus páginas sean visitadas por estos bots aumenta la probabilidad de que tu contenido sea citado por sistemas de IA.

El análisis de logs del servidor es la manera más precisa de entender la actividad de estos bots, aunque puede ser técnico y complejo para sitios grandes. Alternativamente, se puede usar el plugin SEO Bulk Admin en WordPress, que permite monitorizar la actividad de los crawlers de IA de forma más accesible, aunque quizá menos exhaustiva que el análisis de logs. Esta herramienta ofrece información a nivel de página sobre qué URLs están siendo rastreadas y permite tomar decisiones de optimización basadas en datos reales.

Con la información obtenida de los crawlers, se puede mejorar la estrategia de contenido. Es recomendable analizar qué páginas son más visitadas por bots de IA, identificar patrones de contenido efectivo (como guías, preguntas frecuentes o definiciones), añadir datos estructurados (schema), hacer el contenido más claro y conciso, aumentar la autoridad mediante fuentes fiables y mejorar el enlazado interno para conectar contenido relevante.

En conclusión, los SEOs no pueden ignorar el comportamiento de los crawlers de IA. Tanto mediante el análisis de logs como mediante herramientas más sencillas, es posible diseñar estrategias basadas en datos reales que aumenten la probabilidad de que el contenido sea citado por IA. La clave está en identificar el contenido exitoso, optimizar el menos rastreado y aplicar mejoras estructurales que maximicen la visibilidad en motores de IA.