La Asociación de Bibliotecas de Investigación (ARL) ha publicado hoy este Issue Brief: New US Federal Compliance Rules for Sensitive Information que incluye detalles sobre las normas actuales y la actividad en la política de información y las prácticas de ciberseguridad relacionadas en las instituciones de investigación de Estados Unidos y las agencias federales.
Varias agencias federales de los Estados Unidos, en particular el Departamento de Defensa, están avanzando hacia la exigencia de certificaciones o evaluaciones de ciberseguridad, con implicaciones potencialmente significativas para la empresa de investigación de la educación superior.
Una gran cantidad de información sensible y valiosa es creada, gestionada y almacenada por los investigadores de las universidades de Estados Unidos. Cada vez más esta información es digital, lo que significa que las prácticas eficaces de ciberseguridad han crecido en importancia y visibilidad. Para los datos y la información producidos como parte de una actividad de investigación financiada por el gobierno federal de los Estados Unidos, la salvaguarda de la información controlada, clasificada y no clasificada (CUI) está sujeta a normas y reglamentos federales específicos. Tanto las propias normas y reglamentos, como las decisiones que toman los financiadores federales sobre su aplicabilidad, han cambiado sustancialmente en los últimos años. Sin embargo, estas cuestiones no son nuevas. Las instituciones ya estarán familiarizadas con la normativa gubernamental que regula el trabajo que entra en el ámbito del Reglamento sobre el Tráfico Internacional de Armas (ITAR), la investigación clasificada a varios niveles y los controles de la Ley de Portabilidad y Responsabilidad del Seguro Médico (HIPAA) relativos a los datos biomédicos de los pacientes, aunque algunas instituciones han optado por no albergar investigaciones sujetas a algunos de estos controles. La ciberseguridad efectiva también desempeña un papel vital en cumplimiento institucional de los requisitos de privacidad federales y estatales, así como de las mejores prácticas en general.
En 2011, un sorprendente trabajo de psicología causó sensación en las redes sociales, las noticias y el mundo académico: Las personas utilizaban Internet como una forma de memoria «externa», según el estudio, confiando en ella para obtener información en lugar de recordar los hechos por sí mismos. En 2018, un hallazgo clave de ese documento no se replicó cuando un equipo de psicólogos lo puso a prueba junto con otros 20 estudios de ciencias sociales de alto perfil.
Sin embargo, el artículo original ha sido citado 1417 veces, y más de 400 de esas citas se produjeron después del proyecto de replicación de 2018. Eso es mucho más, en promedio, que los artículos del proyecto que sí se replicaron. Ahora, un nuevo estudio refuerza la popularidad de los estudios poco fiables: Los artículos de ciencias sociales que no se replicaron acumulan 153 citas más, de media, que los artículos que se replicaron con éxito.
Este último resultado es «bastante condenatorio», dice el científico cognitivo de la Universidad de Maryland, College Park, Michael Dougherty, que no participó en la investigación. «El recuento de citas se ha considerado durante mucho tiempo como un indicador de la calidad de la investigación», afirma, por lo que la conclusión de que la investigación menos fiable se cita más apunta a un «problema fundamental» en la forma de evaluar este tipo de trabajos.
Los economistas Marta Serra-García y Uri Gneezy, de la Universidad de California en San Diego, estaban interesados en saber si las ideas de investigación llamativas recibían más atención que las mundanas, aunque tuvieran menos probabilidades de ser ciertas. Para ello, recopilaron datos sobre 80 artículos de tres proyectos diferentes que habían tratado de replicar importantes hallazgos de las ciencias sociales, con distintos niveles de éxito.
Según informan hoy en Science Advances, el número de citas en Google Scholar fue significativamente mayor para los trabajos que no lograron replicar, con un aumento medio de 16 citas adicionales por año. Se trata de una cifra importante, dicen Serra-García y Gneezy, ya que los artículos publicados en revistas de alto impacto en el mismo periodo de tiempo acumularon un total de unas 40 citas al año de media.
Y cuando los investigadores examinaron las citas de los artículos publicados después de los proyectos de replicación más importantes, descubrieron que los artículos rara vez reconocían el fracaso de la replicación, mencionándolo sólo el 12% de las veces.
Los científicos quieren que su trabajo sea preciso, pero también quieren publicar resultados que llamen la atención. Es posible que los revisores bajen el listón de las pruebas cuando los resultados son especialmente sorprendentes o emocionantes, dice, lo que podría significar que los resultados sorprendentes y las pruebas más débiles van a menudo de la mano. Esto apunta a la necesidad de adoptar salvaguardias adicionales para reforzar la credibilidad de los trabajos publicados, como un umbral más alto para lo que se considera una buena prueba, y un mayor esfuerzo para centrarse en cuestiones y métodos de investigación sólidos, en lugar de hallazgos llamativos.
El resultado coincide con estudios anteriores que sugieren que la investigación popular es menos fiable. Un estudio de 2011 en Infection and Immunity, por ejemplo, encontró que las revistas de alto impacto tienen mayores tasas de retracción que las de menor impacto. Y la investigación de Dougherty -actualmente un preprint no revisado– ha encontrado que los artículos más citados se basaban en datos más débiles, dice. Pero un artículo publicado en 2020 en la revista Proceedings of the National Academy of Sciences, que analizaba una muestra diferente de artículos, no encontró ninguna relación entre las citas y las réplicas. Esto sugiere que la muestra de artículos podría ser realmente importante, dice Pfeiffer; por ejemplo, el efecto podría ser particularmente fuerte en las revistas de alto impacto.
Salgado-Levano, Ana Cecilia. Manual de Investigación. Teoría y práctica para hacer la tesis según la metodología cuantitativa. Lima: Fondo Editorial de la Universidad Marcelino Champagnat, 2017
Se trata de un completo manual para la tesis, ya sea de grado o de posgrado. Incluye los aspectos teóricos y prácticos para redactar el proyecto de investigación, así como el informe final. En la primera parte del proyecto se pueden encontrar ejemplos de cómo formular problemas, objetivos e hipótesis en función de los diseños de investigación. También en los aspectos metodológicos se pueden encontrar ejemplos de tipos y diseños de investigación, denominación y operacionalización de variables, ejemplos de cómo redactar los instrumentos, manipulaciones experimentales y procedimientos, entre otros aspectos. Mientras que en la segunda parte del informe de tesis, se pueden encontrar ejemplos de la introducción, discusión, conclusiones y recomendaciones. Por último, los apéndices muestran ejemplos de modelos de encuestas para el estudio piloto, el asentimiento y el consentimiento informado.
Las tesis digitales forman parte de la investigación académica desde hace años, pero todavía hay muchos interrogantes en torno a sus procesos. ¿Son las tesis digitales significativamente diferentes de sus homólogas en papel? ¿Cuáles son los efectos de los proyectos digitales en la formación doctoral? ¿Cómo se elige y defiende una tesis digital? Este libro explora las implicaciones más amplias de la beca digital a través de las divisiones institucionales, geográficas y disciplinarias.
El volumen está organizado en dos secciones: la primera, escrita por académicos de alto nivel, aborda las preocupaciones conceptuales relativas a la dirección y evaluación de las tesis digitales en el contexto más amplio de la educación doctoral. La segunda sección consiste en estudios de casos de estudiantes de doctorado cuya investigación dio lugar a una tesis nativamente digital que han defendido con éxito. Estos investigadores noveles han sido seleccionados para representar una serie de disciplinas e instituciones.
A pesar del profundo efecto de la incorporación de herramientas digitales en las tesis, la bibliografía al respecto es limitada. Este volumen pretende ofrecer una visión fresca y actualizada de la tesis digital, teniendo en cuenta los últimos avances tecnológicos. Es especialmente relevante en el contexto europeo, donde las disertaciones digitales, sobre todo en la investigación basada en las artes, son más populares.
Shaping the Digital Dissertation tiene como objetivo proporcionar ideas, precedentes y mejores prácticas a los estudiantes de posgrado, asesores de doctorado, agentes institucionales y comités de disertación. Dado que las tesis digitales tienen un impacto potencial en el estado de la investigación en su conjunto, esta colección editada será un recurso útil para la comunidad académica en general y para cualquier persona interesada en el futuro de los estudios de doctorado.
Esta guía pretende ser un complemento sencillo y práctico para el uso de herramientas como Scopus y SciVal, que forman parte de la cartera de soluciones de Research Intelligence. Proporciona algunos datos sobre cómo se utilizan los datos subyacentes a las métricas, cómo se calculan y muestran las métricas, y sobre las variables, además del rendimiento, que pueden afectar a las métricas. También ofrece algunas sugerencias sobre las situaciones en las que las métricas son útiles, cuándo hay que tener cuidado y cómo se pueden abordar las deficiencias.
SciVal es una Una solución analítica basada en la web con una potencia y flexibilidad sin precedentes que proporciona un acceso completo al rendimiento de la investigación de más de 20.000 instituciones de investigación y sus investigadores asociados de 230 países de todo el mundo. SciVal permite visualizar el rendimiento de su investigación, comparar con sus homólogos, desarrollar asociaciones estratégicas, identificar y analizar nuevas tendencias de investigación emergentes y crear informes personalizados.
Resultados de la encuesta sobre el estado de las métricas responsables de 2020. Siendo 2020 un año difícil para todos, observamos un descenso en la participación con respecto a los resultados de 2019, pasando de 218 encuestados a un total de 139. Aun así, la diversidad de países de los que proceden los encuestados, ya observada el año pasado, sigue siendo evidente (Figura 1). En este sentido, es destacable la diligencia e importancia que muchos profesionales dan a la encuesta y el tiempo que dedican a ello. De hecho, nos alegramos de ver comentarios en las redes sociales y de recibir correos electrónicos que reflejan los debates internos que se producen entre los colegas mientras preparan sus respuestas.
La encuesta de este año incluye algunos cambios notables con respecto a otras ediciones. Junto con las preguntas periódicas relacionadas con la integración de prácticas de métrica de investigación responsable en su institución, ampliamos el número de preguntas en dos direcciones. En primer lugar, queríamos conocer la organización y el departamento del encuestado para contextualizar mejor sus respuestas. En segundo lugar, formulamos preguntas específicas sobre las herramientas que utilizaban al producir métricas de investigación para sus instituciones.
El 76,3% de los encuestados trabajan en universidades, seguidos por el 14,4% que trabajan en institutos públicos de investigación. El resto se encuentra disperso en otras organizaciones, como empresas privadas (N=4), editoriales (N=3) u hospitales (N=1), entre otras. De los que trabajan en el ámbito académico, casi la mitad (45,3%) lo hace en la Biblioteca Universitaria, mientras que el 34,9% lo hace en la Oficina de Investigación. El número de personas que trabajan en la evaluación de la investigación varía mucho de unas instituciones a otras, con una mediana de 4 personas en las bibliotecas a 10 en las Oficinas de Planificación o 5 en las Oficinas de Investigación y con grandes diferencias dentro de los tipos de departamentos.
En cuanto a las fuentes y herramientas que utilizan en su trabajo diario, incluimos las suites bibliométricas y las bases de datos más conocidas, así como una opción de «otros» en la que los encuestados podían añadir otras herramientas que utilizaban para producir métricas de investigación. Web of Science y Scopus son las fuentes de datos más comunes, seguidas de los repositorios institucionales, Google Scholar y los sistemas institucionales CRIS. Sin embargo, es raro que se utilice una sola fuente de datos, y los encuestados indican que utilizan una media de más de tres fuentes de datos diferentes.
La variedad de herramientas y niveles de sofisticación muestra también una gran diversidad. Las respuestas van desde la indicación de la falta de uso de herramientas bibliométricas (N=11), pasando por el uso de herramientas comerciales (Scival, InCites), hasta la combinación de herramientas ad hoc con lenguajes de programación, herramientas de visualización y herramientas bibliométricas como Bibibliometrix o BibExcel.
Figura 4. Las 12 herramientas más utilizadas por los encuestados
Una vez más, las respuestas reflejan una gran versatilidad, ya que las herramientas rara vez se utilizan de forma aislada, sino que siempre se combinan para proporcionar análisis bibliométricos más precisos. Esto refleja el nivel de profesionalidad presente en el campo.
Firmantes del DORA
En comparación con los resultados del año pasado, el porcentaje de encuestados que han firmado la Declaración de San Francisco DORA es mayor que el de los que no lo han hecho. Esto puede ser el resultado de una mayor atención al DORA por parte del Plan S, y de un requisito del financiador de la COAlición S, el Wellcome Trust, de que los beneficiarios demuestren un compromiso público con los principios del DORA. Entre otros comentarios, encontramos un encuestado que afirmó que su institución había considerado esta decisión como algo que los individuos, departamentos y facultades eran libres de hacer, pero que no harían en conjunto. También encontramos que el DORA todavía no ha llegado a todo el mundo, y 11 encuestados indicaron que nunca habían oído hablar de él. 10 encuestados indicaron que su institución había decidido no firmarlo, mientras que 4 afirmaron respaldarlo pero habían decidido no firmarlo. En este sentido, está por ver si acciones públicas como la emprendida recientemente contra la Universidad de Liverpool por los autores del Manifiesto de Leiden y los principios de Hong Kong, que es firmante del DORA pero no reflejó prácticas de métrica de investigación responsables, podrían tener una consecuencia en estas decisiones.
Desarrollo de principios institucionales
Casi el 70% de los encuestados ha considerado al menos el desarrollo de un conjunto de principios sobre el uso responsable de las métricas de investigación, un aumento en comparación con el 52% informado en la encuesta de 2019. De ellos, solo un encuestado indicó que su institución había decidido no hacerlo. Los encuestados dieron algunas nociones sobre cómo se están diseñando estos principios. En algunos casos, utilizarían o adaptarían los principios establecidos en el Manifiesto de Leiden a su contexto institucional; en otros casos, participarían activamente en el desarrollo de los principios nacionales. En un caso, un encuestado indicó que estaba trabajando con el INORMS para aplicar SCOPE a su marco de publicación responsable.
Las instituciones en las que los indicadores basados en la publicación pueden no aplicarse, no están exentas del uso de prácticas de métrica responsable. Una institución de Arte y Diseño informó de que «no utiliza la bibliometría, pero está considerando otras métricas que se relacionan más con el rendimiento de la investigación departamental que con el rendimiento individual». Otros indicaron que, a pesar de no tener un conjunto oficial de principios, «consideran activamente la ética de lo que hacemos».
Conclusiones
Siguiendo la tendencia del año pasado, observamos cómo parece que hemos superado la fase de reconocimiento y concienciación de la necesidad de un uso responsable de las métricas. Las respuestas son cada vez más críticas con la forma en que se implementa dicho uso e incluso las opiniones negativas están motivadas y bien argumentadas, y no se limitan a reconocer la ignorancia. La adopción del DORA sigue aumentando, pero los profesionales indican una respuesta ambivalente de las comunidades académicas a estas políticas. Muchas de las malas prácticas que rodean el uso de las métricas parecen estar bastante arraigadas en la cultura académica.
En cuanto a la introducción de nuevas preguntas, observamos que el desarrollo de las métricas requiere una serie de herramientas cada vez más complejas, tanto de propósito general como las diseñadas específicamente para producir métricas de investigación. Es interesante observar que se ha generalizado el uso de fuentes de datos, incluidas muchas de las nuevas bases de datos que han surgido en los últimos años (por ejemplo, Lens, Dimensions), lo que demuestra que los días en que la comunidad profesional estaba vinculadas únicamente a la Web of Science han quedado atrás.
En opinión del autor, el mensaje más relevante es el hecho de que estamos pasando a un debate más complejo sobre cómo se aplican en la práctica las métricas responsables (o cualquier otro tipo de enfoque de seguimiento o evaluación) y qué entendemos realmente por un uso responsable. En este sentido, temas como la personalización y la contextualización de los informes, la difusión y la visibilidad, así como la alfabetización en materia de métricas, parecen adquirir una gran importancia, haciendo que la conversación vaya más allá de la producción real de métricas y se centre en cómo se comunican, a quién y con qué propósito.
Scientific Publishing Is a Joke: An XKCD comic—and its many remixes—perfectly captures the absurdity of academic research. BENJAMIN MAZER, MAY 6, 2021
Un verdadero avance científico, al igual que una cita exitosa, necesita tanto de la preparación como de la serendipia. Las universidades juzgan a sus investigadores no tanto por la calidad de sus descubrimientos como por el número de artículos que han publicado en revistas especializadas y por el prestigio de esas revistas. Los científicos bromean (y se quejan) de que esta incesante presión para rellenar sus currículos suele conducir a publicaciones defectuosas o poco originales. Así que cuando Randall Munroe, el creador del famoso webcomic XKCD, expuso este problema en una viñeta perfecta la semana pasada, captó la atención de los científicos e inspiró a muchos a crear versiones específicas para sus propias disciplinas. En conjunto, se convirtió en una conversación global e interdisciplinaria sobre la naturaleza de las prácticas de investigación modernas.
La viñeta es, como la mayoría de los cómics de XKCD, un simple dibujo lineal en blanco y negro con un chiste de lo más friki. Representa una taxonomía de los 12 «tipos de artículos científicos», presentados en una cuadrícula. «El sistema inmunitario vuelve a hacer de las suyas», dice el título de un artículo. «Mi colega está equivocado y por fin puedo demostrarlo», declara otro. El chiste revela cómo la literatura de investigación, cuando se despoja de su jerga, es tan susceptible de repetición, trivialidad, complicidad y mezquindad como otras formas de comunicación. Sin embargo, la simplicidad infantil de la viñeta parece ofrecer una cobertura para que los científicos critiquen y celebren su trabajo al mismo tiempo.
El concepto era intuitivo e infinitamente remezclable. En un par de días, el sociólogo Kieran Healy había creado una versión de la cuadrícula para su campo; sus entradas incluían «Esto parece muy raro y malo, pero es perfectamente racional cuando eres pobre», y «Adopto un enfoque SOCIOLÓGICO, a diferencia de ALGUNA gente». Los epidemiólogos también se subieron al carro: «No tenemos ni idea de lo que estamos haciendo: ¡pero aquí hay algunos modelos!». Los estadísticos, como era de esperar, también se entusiasmaron: «Un nuevo estimador robusto de la varianza que nadie necesita». (Yo tampoco lo entiendo.) No se podía mantener a los biólogos alejados de la diversión («¡Nuevo microscopio! El suyo está ahora obsoleto»), y -como es habitual- los periodistas científicos no tardaron en seguirles («Los lectores aman a los animales»). Un estudiante de doctorado creó un sitio web para ayudar a los usuarios a generar sus propias versiones. En ese momento, el escritor y activista de Internet Cory Doctorow alabó el proyecto colectivo de producción de estos chistes como «un acto de autoetnografía irónica y perspicaz, una autocrítica envuelta en humor que cuenta una historia».
Dicho de otro modo: El chiste dio en el blanco. «El meme da en el clavo», dice Vinay Prasad, profesor asociado de epidemiología y destacado crítico de la investigación médica. «Muchos artículos no sirven para nada, no promueven ninguna agenda, pueden no ser correctos, no tienen sentido y se leen mal. Pero son necesarios para la promoción». La literatura académica en muchos campos está plagada de trabajos extraños; de hecho, siempre me ha intrigado la idea de que este lamentable resultado era más o menos inevitable, dados los incentivos en juego. Coge a un grupo de personas inteligentes y ambiciosas y diles que publiquen el mayor número posible de trabajos sin dejar de pasar técnicamente por la revisión por pares… ¿y qué crees que va a pasar? Por supuesto, el sistema se manipula: Los resultados de un experimento se reparten en una docena de artículos, las estadísticas se manipulan para producir resultados más interesantes y las conclusiones se exageran. Los autores más prolíficos han encontrado la manera de publicar más de un artículo científico a la semana. Los que no pueden seguir el ritmo pueden contratar a una fábrica de artículos para que haga (o finja) el trabajo en su nombre.
En medicina, al menos, la urgencia de COVID-19 no ha hecho sino facilitar la publicación de un gran número de artículos con gran rapidez. Las revistas más prestigiosas -The New England Journal of Medicine, el Journal of the American Medical Association y The Lancet- han reservado tradicionalmente su limitado espacio para los grandes y costosos ensayos clínicos. Sin embargo, durante la pandemia, empezaron a aceptar rápidamente informes que daban datos de sólo unos pocos pacientes. Más de un currículum se reforzó por el camino. Los científicos, desesperados por seguir siendo relevantes, empezaron a meter el COVID-19 en investigaciones que no tenían nada que ver, dice Saurabh Jha, profesor asociado de radiología y subdirector de la revista Academic Radiology.
Ya se han publicado 200.000 artículos de COVID-19, de los cuales sólo una pequeña proporción se leerá o pondrá en práctica. Para ser justos, es difícil saber de antemano qué datos serán más útiles durante una crisis sanitaria sin precedentes. Pero la publicación de la pandemia sólo ha servido para exacerbar algunos malos hábitos bien establecidos, me dijo Michael Johansen, un médico de medicina familiar e investigador que ha criticado muchos estudios por su mínimo valor.
Aunque el cómic de XKCD puede leerse como una crítica a la empresa científica, parte de su atractivo viral es que también transmite la alegría que sienten los científicos al ponerse a pensar en sus temas favoritos. («¡Eh, he encontrado un trozo de discos antiguos! No resultan ser especialmente útiles, pero aun así, ¡guay!»). Las métricas de publicación se han convertido en un triste sustituto de la calidad en el mundo académico, pero quizá haya una lección en el hecho de que incluso un webcomic pueda despertar tanta pasión y colaboración en la comunidad científica. Seguro que hay una forma mejor de cultivar el conocimiento que la interminable parrilla de artículos en blanco y negro de hoy en día.
bioRxiv (pronounciado «bio-archive») es un servicio gratuito de archivo y distribución en línea de preprints no publicados en el ámbito de las ciencias de la vida. Está gestionado por el Cold Spring Harbor Laboratory, una institución educativa y de investigación sin ánimo de lucro. Al publicar los preprints en bioRxiv, los autores pueden poner sus hallazgos a disposición de la comunidad científica de forma inmediata y recibir comentarios sobre los borradores de los manuscritos antes de enviarlos a las revistas.
Parte de la misión en bioRxiv es alertar a los lectores sobre las revisiones y discusiones de los preprints y apoyar las diferentes formas en que los lectores proporcionan retroalimentación a los autores sobre su trabajo. bioRxiv mejora la posibilidad de descubrir estos esfuerzos mediante el enlace a las revisiones por pares, las discusiones de la comunidad y las menciones del preprints en los medios sociales y tradicionales. Al agregar esta información en un nuevo panel de control, facilitando a los lectores la búsqueda y el acceso.
En la barra de inicio del cuadro de mandos, encima de cada resumen, aparecen ahora una serie de nuevos iconos que representan diferentes fuentes de discusión o evaluación de preprints; se muestran los números de cada evaluación o interacción, y al hacer clic en uno de los iconos se abre un cuadro de mandos con detalles de las entradas de esa sección.
Aquí, los lectores pueden encontrar los comentarios enviados a bioRxiv y también enviar sus propios comentarios a través del servicio de comentarios Disqus. Todos los comentarios son moderados para asegurar que se adhieren a nuestras políticas de comentarios.
Is Academic Research Too Hard To Read? The Academics Say Yes. by Porter Anderson, Piblishing Perspectives, May 11, 2021
Ver informe
En una encuesta realizada por la editorial británica Emerald Publishing, los investigadores afirman no estar satisfechos con la forma en que las publicaciones académicas presentan su trabajo a un mundo que necesita entenderlo.
En este estudio, que es importante tanto para los propios investigadores como para los consumidores de literatura de investigación, se consultó a 1.500 académicos de un grupo internacional de más de 100 países.
No hace falta decir que los investigadores quieren que su trabajo sea accesible y descubrible.
Los usuarios quieren que la ciencia produzca su mejor trabajo de forma inteligible.
La idea clave de esta investigación es que hay un fuerte deseo por parte de la comunidad académica de cambiar la forma en que se presenta la investigación para hacerla más utilizable en un mundo post-COVID.
En cuanto a los incentivos de publicar, los científicos valoran la publicación del artículo de investigación tradicional en revistas con ‘factor de impacto’ por encima de los resultados de la investigación y los formatos de contenido que nos llevan más allá del artículo.
Algunos de los resultados de la encuesta para captar el sentido:
Tres de cada cinco académicos afirman que creen que la investigación es difícil de utilizar fuera del ámbito académico
El 45% de los académicos encuestados afirma estar de acuerdo en que los documentos de investigación son demasiado largos y el 57% considera que los resúmenes de las investigaciones podrían ayudar a presentar de forma más eficaz los resultados a los responsables de la toma de decisiones fuera del ámbito académico.
Un 64 por ciento de los académicos encuestados dice que cree que es necesario centrarse más en las experiencias del mundo real y «traer el mundo exterior» para mejorar la experiencia de aprendizaje de la investigación académica
Un 64% de los académicos encuestados dicen que creen que formas de contenido como vídeos, podcasts e infografías podrían ayudar a presentar la investigación
El número de artículos académicos que se publican anualmente no deja de crecer, al igual que el número de indicadores con los que se mide el impacto de las publicaciones. Se sabe poco sobre cómo la creciente variedad de indicadores disponibles afecta a los procesos de selección de la literatura que leen los investigadores.
Se realizaron experimentos de clasificación integrados en una encuesta en línea con 247 investigadores participantes, la mayoría de ellos de ciencias sociales. Los participantes completaron una serie de tareas en las que se les pedía que clasificaran publicaciones ficticias en función de su relevancia esperada, basándose en sus puntuaciones respecto a seis métricas prototípicas. Mediante la aplicación de la regresión logística, el análisis de conglomerados y la codificación manual de las respuestas a la encuesta, se obtuvieron datos detallados sobre el modo en que las métricas destacadas del impacto de la investigación influyeron en los participantes a la hora de decidir qué artículos científicos leer.
Las respuestas a la encuesta revelaron una combinación de características cualitativas y cuantitativas que los investigadores consultan a la hora de seleccionar la bibliografía, mientras que el análisis de regresión mostró que, entre las métricas cuantitativas, el recuento de citas tiende a ser el que más preocupa, seguido de los factores de impacto de las revistas.
Los resultados sugieren una opinión comparativamente favorable de muchos investigadores sobre la bibliometría y un escepticismo generalizado hacia la altmetría. Los resultados subrayan la importancia de dotar a los investigadores de conocimientos sólidos sobre las limitaciones de las métricas específicas, ya que parecen desempeñar un papel importante en la evaluación diaria de la relevancia por parte de los investigadores.