Archivo de la etiqueta: Impacto

Evaluación de la Investigación en Humanidades

978-3-319-29016-4

Ochsner, M., S. E. Hug, et al. (eds). [e-Book] Research Assessment in the Humanities: Towards Criteria and Procedures. Zürich, Springer, 2016.

 

Texto completo

PDF 

ePub

:

Este libro analiza un tema importante, la búsqueda de la calidad académica en la investigación en el campo de las humanidades y, en particular, la forma de llegar a un acuerdo sobre la forma de precisar qué y en qué contextos se establece la evaluación de la investigación en esta disciplina. Durante los últimos 20 años, hemos sido testigos, en particular en Europa, de una influencia cada vez mayor de técnicas cuantitativas sobre la medición de rendimiento de la investigación, sobre todo en las ciencias naturales, biomédica e ingeniería. Y aunque se reconoció claramente que estas técnicas cuantitativas bibliométricas tienen menor relevancia en las ciencias sociales, humanidades y derecho (SSH), la presión sobre estos dominios para adaptarse a las prácticas de evaluación de la investigación de carácter cuantitativo, tal como se aplica en el medio natural, ciencias de la vida, ciencias biomédicas y la ingeniería, creció en forma sostenida. Y si bien algunas de estas técnicas que pueden funcionar en algunas especialidades de las ciencias sociales, en las que la revista se ha convertido en el estándar de la materia, es evidente que no es aplicable en la mayoría de las otras especialidades de las ciencias sociales, casi la totalidad de las humanidades y el derecho.

Herramientas y sitios utilizados para la medición del impacto científico

 

assessment-segment

Se muestran los resultados provisionales sobre el uso de herramientas y sitios para la medición de la investigación científica de la encuesta “Survey of scholarly communication tool usage” llevada a cabo por Bianca Kramer y Jeroen Bosman de la Universidad de Utrecht entre octubre de 2015 y febrero de 2016. La encuesta forma parte de un esfuerzo continuo para analizar el panorama cambiante de la comunicación científica.

En el apartado relativo a las herramientas y sitios web utilizados para la medición del impacto científico por parte de investigadores y bibliotecarios se formulo la pregunta ¿Cuales son las herramientas que utiliza para medir el impacto? Ofreciéndose la opción de elegir entre siete herramientas JCR, Altmetric.com, Scopus, ImpactStory, PLos ALM, Web of Science, Harzing.com y otras, tal como se ve en la figura.

101-innovations-survey-impact

En la encuesta participaron estudiantes de doctorado, investigadores postdoctorales, profesores y bibliotecarios. Aclarar que en el caso de los bibliotecarios, cuya labor es de apoyo a la investigación (en lugar de llevar a cabo la investigación activamente  ellos mismos) se les pide que indiquen qué herramientas que  recomiendan. Lo que significa que las respuestas de  los bibliotecarios indican promoción, en lugar de uso activo.

Entre los investigadores, las herramientas tradicionales como el JCR (factor de impacto), Web of Science y Scopus son utilizadas con más frecuencia que las herramientas altmétricas (altmetrics, ImpactStory y PLOS). Los bibliotecarios, sin embargo, seleccionaron las herramientas altmétricas en la misma medida que las herramientas de métricas tradicionales. El hecho de que los bibliotecarios recomienden mucho más a menudo herramientas altmétricas, tales como Altmetric.com y ImpactStory, en comparación con los investigadores, podría reflejar un mayor conocimiento o un mayor entusiasmo respecto al potencial de estas herramientas.

impact-percentage-respondents

Herramientas de medición científica utilizadas por investigadores y bibliotecarios

Quizás lo más sorprendente de estos resultados preliminares es que indican una proporción relativamente grande de herramientas altmétricas mencionadas por los investigadores de Arte y Humanidades en comparación con las otras disciplinas, Por una parte debe de tenerse en cuenta que el tamaño de la muestra es relativamente pequeño, por otra está la hipótesis de que estos resultados tienen que ver con que tradicionalmente la representación y uso de bases de datos de citas como Scopus y Web of Science por parte de los investigadores de Artes y Humanidades es muy limitada debido a la cobertura de estas bases de datos y la ausencia de las humanidades en JCR, por lo que tal vez están más abiertos a las oportunidades que ofrecen las herramientas altmétricas para medir el impacto de los resultados de sus investigaciones en este área de conocimiento.

impact-altmetrics-share

Preferencias por áreas de conocimiento

Además de las herramientas propuestas previamente por la encuesta se daba la posibilidad de incluir otras herramientas a través de una pregunta abierta, aquí se mencionó fundamentalmente Google Académico,  ResearchGate.

Los datos de esta encuesta están disponibles en Figshare:
http://dx.doi.org/10.6084/m9.figshare.1572175

Más allá del acceso abierto: visiones para la evaluación abierta de trabajos científicos

26095684230_519d3d97d2_n_d

Kriegeskorte, N. and D. Deca (2012). [e-Book]  Beyond open access: visions for open evaluation of scientific papers by post-publication peer review, Frontiers, 2012.

Texto completo

Un sistema de publicación científica tiene que proporcionar dos servicios básicos: acceso y evaluación. El sistema de publicación tradicional restringe el acceso a los documentos, exigiendo el pago, y que restringe la evaluación de trabajos basándose en tan sólo 2-4 revisiones por pares y manteniendo en secreto las críticas. Como resultado, el sistema actual adolece de una falta de calidad y transparencia del proceso de evaluación de revisión por pares, y la indicación de la nueva calidad del documento es el prestigio de la revista apareció. El acceso abierto es ahora ampliamente aceptado como deseable y está lentamente comenzando a convertirse en una realidad. Sin embargo, el segundo elemento esencial, la evaluación, ha recibido menos atención. El planteamiento de una «evaluación abierta» como un proceso continuo posterior a la publicación de la revisión por pares promete hacer frente a los problemas del sistema actual. Sin embargo, no está claro cómo debe realizarse exactamente.

El sistema de evaluación dirige la atención de la comunidad científica y, por lo tanto, el curso mismo de la ciencia. Para mejor o peor, los documentos más visibles determinan la dirección de la financiación y las decisiones de la política científica. La evaluación, por lo tanto, está en el corazón de todo el esfuerzo de la ciencia. A medida que el número de publicaciones científicas aumenta, la evaluación y selección sólo ganarán importancia. Un gran desafío de nuestro tiempo, por lo tanto, es diseñar el futuro sistema, mediante el cual se evalúen los documentos y se decidir cuáles merecen una gran atención. Hasta ahora los científicos han dejado el diseño del proceso de evaluación en manos de las revistas y editoriales. Sin embargo, el mecanismo de gestión de la ciencia debe ser diseñado por los científicos.

Las ciencias cognitivas y computacionales están mejor preparados para asumir esta tarea, lo que implicará consideraciones sociales y psicológicas, diseño de software y modelización de la red de artículos científicos y sus interrelaciones. La investigación en este tema Frontiers in Neurociencia Computacional recoge las visiones de un futuro sistema de evaluación abierta. Debido a que abundan los elementos críticos sobre el sistema actual, estos trabajos se centrarán en ideas constructivas y diseños integrales para sistemas de evaluación abiertas. Las decisiones de diseño incluyen: ¿Deben los comentarios y valoraciones ser enteramente transparentes, o se deben mantener en secreto algunos aspectos? En caso de que otros datos, tales como descargas se incluirán en la evaluación? ¿Cómo puede la objetividad científica fortalecerse en el sistema futuro? ¿En casos el sistema debe incluir comentarios y valoraciones firmadas y autenticadas? ¿Al tratarse de un sistema de evaluación continua supondrá que los documentos se evalúen más profundamente? ¿Cómo podemos llevar la ciencia y la estadística para el proceso de evaluación? ¿Cómo debe presentarse la información de la evaluación de cada documento? (por ejemplo, las evaluaciones compartidas) ¿En casos los diferentes individuos y organizaciones serán capaces de definir sus propias fórmulas de evaluación (por ejemplo, clasificaciones de ponderación de acuerdo con diferentes criterios)? ¿Cómo podemos hacer una transición eficiente hacia el futuro sistema?

Altmetrics : definiciones y casos de uso

26142032296_2f89b56cd3_n_d

NISO Altmetrics Definitions and Use Cases. NISO, 2016

Texto completo

La Organización Nacional de Normas de Información (NISO) necesita comentarios sobre el proyectoAltmetrics Definitions and Use Cases. , NISO RP-25-201X-1. Un documento de la iniciativa altmetrics NISO, un proyecto de dos fases con el objetivo de hacer frente a las limitaciones y deficiencias que pueden dificultar la adopción de altmetrics, una expansión de las herramientas disponibles para medir el impacto de la investigación académica en el entorno social de conocimiento.

Las definiciones y casos de uso de documentos es un texto corto, pero es un buen reflejo de las muchas discusiones del grupo de trabajo celebradas para revisar y discutir a fondo las definiciones de las diversas fuentes de información en materia altmetrics. También incluye una declaración sobre el papel que juega la métrica de evaluación alternativa de la investigación, para ayudar a contextualizar el documento en su contexto y asesorar sobre posibles aplicaciones de altmetrics.

Los casos de uso para altmetrics fueron aportados por las diferentes partes interesadas en el ecosistema de la investigación. El documento de NISO significa poner de relieve las diferentes formas en que los grupos de interés recogen, elaboran y consumen altmetrics, y que explican y contextualizan en común necesidades, objetivos y usos de las partes interesadas.

La producción de de este documento esta relacionada con los desarrollos de los otros dos grupos de trabajo de manera que la definición de los términos utilizados permite que diferentes partes interesadas en este espacio se puedan entender cuando están hablando de lo mismo. Además, el desarrollo de casos de uso y su relación con grupos de interés aclara los requisitos y las prioridades para el desarrollo.

El proyecto de la Práctica Recomendada está abierto para comentarios del público hasta el 20 de abril de 2016. Para descargar el borrador o presentar comentarios en línea, visite la página web de la Iniciativa altmetrics NISO en http://www.niso.org/topics/tl/altmetrics_initiative/

Mendeley incorpora estadísticas de correlación con Scopus y ScienceDirect

Tutorial de Mendely con las nuevas incorporaciones y ejercicios

Más de 24.000 descargas actualmente

Oír PODCAST de Planeta Biblioteca

Entre los nuevos avances está la integración entre Mendeley y Scopus. Las estadísticas que encontramos en la versión web de Mendeley ya muestran la correlación entre los datos de veces que se ha compartido una publicación en Mendeley y las citas recibidas por SCOPUS. Esto también da lugar a que los usuarios de Mendeley tengan una manera fácil de acceder y agregar metadatos de millones de publicaciones de Scopus. De este modo el investigador podrá ser capaz de importar todas sus publicaciones a la vez, lo que evita la entrada de datos manualmente mediante un proceso tedioso.

 25544875473_4b6e88ec31_c_d

Estadísticas con datos de SCOPUS y SCIENCE DIRECT

Mendeley muestra cuántos lectores y las descargas tienen nuestras publicaciones, y se incluye en casi todos las plataformas de medición altmétrica como Altmetric.comImpactStory, o Plos Altmetrics; lo que configura a este gestor de referencias como la herramienta más adecuada para el investigador. Se trata de un índice de popularidad. 

25874660250_8bd18d9746_c_d

Correlación entre las veces que se compartió la publicación y las citas recibidas en SCOPUS

Pero no sólo proporciona datos de los lectores que compartieron la publicación que a veces pueden ser miles, si no que además da datos sobre perfiles de los lectores y áreas de procedencia temática y geográfica.

26081185941_3afb2c2ac8_c_d

Investigadores que compartieron la publicación por categorías y áreas

Otra de las novedades en la web es el módulo de recomendaciones, con sugerencias basadas en diferentes criterios
 
  • Todos los artículos de mi biblioteca
  • Añadidos más recientemente
  • Áreas de interés
  • Más populares de la disciplina
  • El último documento añadido
  • Último documento leído
  • Los más populares de la disciplina

La compañía se refiere a sí misma como una “Wikipedia para información académica”, donde los usuarios de una comunidad global de 4 millones de investigadores ha creado una base de datos compartida de más de 360 millones de documentos (según datos del blog Mendeley). Mendeley dice que esto cubre alrededor de un 97,2% a un 99,5% de los artículos de investigación publicados en los últimos años. Cifra que lo convierte en un recurso de información de gran alcance. Y lo más importante es que la información que alimenta este ecosistema ha sido creada por la propia comunidad científica. 

25544875563_27c5c2042f_c_d

La empresa considera que el crowdsourcing -microvoluntariado- de datos agrega una tinte social a la labor académica y a la cooperación científica. Cada documento incluye información en tiempo real sobre el estado de la investigación, su ubicación, y las palabras clave generadas por sus lectores. Mendeley también añade información acerca de los documentos de investigación relacionados y grupos públicos de Mendeley en los que se discute sobre la misma. Además a plataforma de Mendeley intenta a su vez satisfacer la necesidad de métricas rápidas y granulares del impacto científico de una investigación.

En la nueva versión Mendeley, se ha añadido un nuevo punto de vista que proporciona una manera fácil de encontrar rápidamente los artículos que están relacionados con el contenido en la versión de escritorio seleccionado en función de tes aspectos:

 

1. Recomendaciones instantánea basado en artículos específicos – Seleccionando un sólo documento, un grupo de documentos o una carpeta entera y pulsando el botón de ‘relacionados’ encuentra las investigaciones relacionadas con esos documentos.

 

2. Importación Rápida y fácil – Pudiendo añadir documentos recomendados a biblioteca personal “My Library” con un solo clic y si tenemos permiso para hacerlo, se incluirá también el texto completo del artículo. 

3. Drill-down en recomendaciones – Cuando encuentras una recomendación que te interesa, selecciona y haz clic en “Documentos relacionados” para ver más sugerencias basadas en ese documento.

Entre las novedades que quiere incorporar Mendeley en el futuro está la posibilidad de revisión por pares en la plataforma , al igual que hacen Arxiv o PloS, por lo que en un futuro próximo, los revisores podrán anotar documentos y ver los comentarios de los otros revisores directamente en Mendeley, antes de la publicación. De manera que el editor de la revista recibiría todos estos comentarios por correo electrónico y sólo tendrá que enviarlos todos a los autores del artículo.

Otro de los proyectos que quiere incorporar la aplicación es a través de la adquisición por parte de Elsevier  de la startup de noticias de seguimiento Newsflo. Su software puede ofrecer a los usuarios Mendeley una manera de seguir el impacto de sus investigaciones a través de la web, y convertirse en una nueva forma de medir el impacto de una investigación (Almétrics). Este tipo de métrica alternativa es uno de los caminos de la ciencia abierta que complementa el sistema de citas de las revistas tradicionales, donde la influencia de una revista por sí solo puede favorecer la carrera de un investigador a través de los índices de impacto.

Trends Research número especial sobre las métricas alternativas

 

25528291300_8791914c5b_n_d

«Special issue on alternative metrics» Research Trends vol., n. 37 (2014).

Texto completo 

Este número especial de Research Trends está dedicado a altmetrics, o, como algunos prefieren decir a las métricas alternativas. El creciente interés en el desarrollo de medidas alternativas de la productividad científica se inició con la publicación del llamado «Manifiesto altmetrics» en 2010 en el que se introdujo el término “altmetrics”. El manifiesto señala que “un número creciente de investigadores están desplazando su trabajo diario a la web”, y que las nuevas herramientas en línea “reflejan y transmiten más ampliamente el impacto académico”. Y que esta “manera de medición compuesta del impacto es mucho más rica que cualquier de las disponibles anteriormente”. . En su relato histórico, Mike Thelwall implica el uso de los medios sociales. Se dedica atención a Mendeley y Twitter. También subraya la necesidad de validar y consensuar mejor estas mediciones, mediante la investigación del grado en que se correlacionan con – o predicen – número de citas y otras medidas tradicionales. Ron Daniel aborda la cuestión de cómo los estudios de predicción más allá de citación muestran poca consistencia en los resultados, e indica el potencial de altmetrics. Hadas Sema introduce otra prometedora fuente de datos altmétricos: los blogs especializados.

El rápido desarrollo de las TIC es el factor principal de impulso de las nuevas métricas. No sólo se refleja en la aparición de servicios web sociales, sino también, por ejemplo, en el desarrollo de la digitalización de la información científica. Archivos de perfiles de usuario, archivos de publicaciones electrónicas dejan huellas de un aspecto diferente del trabajo diario de los investigadores, en relación a como navegan en la web, como se documentan y tal vez a sus hábitos y comportamiento lector. En este sentido, los indicadores de descargas de texto completo de publicaciones académicas pueden ser concebidos como también como datos altmétricos cuando se relacionan con la scitas recibidas.

Un equipo de investigadores dirigido por el Cristiano Schlögl interpreta las correlaciones entre la citación, descargar a texto completo y los datos de lectores en términos del grado de solapamiento entre las comunidades de usuarios de los tres sistemas de los que se extrajeron los datos. Vicente P. Guerrero-Bote y Félix Moya -Anegón examinan las correlaciones estadísticas entre las descargas y citas. Se centran en el papel del idioma de publicación, y analizan las revistas menos visibles que publican en otros idiomas aparte del inglés y muestran claramente cómo los dos tipos de medidas son complementarias, y como estas revelan un tipo de patrones que son invisibles en lad otras mediciones. Euan Adie esboza en su contribución, otro aspecto de la digitalización que cada vez la literatura científica es más gris  incluyendo pre-grabados y documentos de política que  deben estar disponibles para la investigación y como fuente de nuevas métricas. En una discusión con Mike Taylor, Juan Pablo Alperin advierte que existen diferencias en el acceso a las nuevas tecnologías entre los países científicamente desarrollados y en desarrollo que pueden tener consecuencias negativas para el primer grupo de países.

Un segundo motor principal del desarrollo de nuevas métricas es el movimiento de Ciencia Abierta, dirigido hacia la disponibilidad de la investigación científica, los datos, y la difusión accesible a todos los niveles de la sociedad, ya sea amateur o profesional. Tal vez las nociones de base de este movimiento se pueden caracterizar como expresiones de la filosofía fundamental de la ciencia en la era digital. Como explica William Gunn, las agencias de financiación de la investigación buscan maximizar el potencial de sus productos financiados, incluidos documentos, métodos y datos. Esto nos impulsa a desarrollar nuevas métricas de reutilización que van más allá de las citas clásicas.

Esto nos lleva a un tercer punto: el dominio de la política de investigación que se refleja claramente en la contribución de Judit Bar-Ilan, que introduce el concepto de Cartera desarrollado en el proyecto ACUMEN (carreras académicas entendida a través de Medición y Normas), financiado por la Comisión Europea, cuyo objetivo es «estudiar y proponer alternativas y formas más amplias de medición de la productividad y el rendimiento de los investigadores individuales «. El autor muestra cómo la presencia y los medios sociales  en línea están bien representados en la experiencia, la salida y la influencia sub-portafolios.

¿Los tweets pueden predecir las citas? Métricas de impacto social basado en Twitter y correlación con los parámetros tradicionales de impacto científico.

likes-shares-tweets-the-growing-role-of-social-media-in-biomedical-literature-17-638

Texto completo

Comúnmente se acepta que las citas y el factor de impacto de los artículos revisados por pares son aceptados como medidas de impacto científico. Las herramientas Web 2.0 como Twitter, blogs o herramientas de marcadores sociales ofrecen la posibilidad de construir métricas innovadoras a nivel de artículo para medir el impacto y la influencia. Lo que se ha denominados métricas alternativas o altmetrics.

El artículo estudia la viabilidad de la medición del impacto social y la atención del público sobre los artículos académicos mediante el análisis del impacto en los medios sociales, para ellos explora la dinámica, el contenido y la sincronización de los tweets en relación con la publicación y explora si estas métricas son lo suficientemente sensibles y específicas para predecir cuales serán aquellos artículos muy citados.

MÉTODOS:

Entre julio de 2008 y noviembre de 2011, se extrajeron todos los tweets que contienían enlaces a artículos en la revista Journal of Medical Internet Research (JMIR). Para un subconjunto de 1.573 tweets sobre 55 artículos publicados con diferentes métricas de impacto social, que posteriormente se calcularon y compararon con datos de las citas que recibieron en Scopus y Google Académico durante los 17 a 29 meses posteriores. Para ello se validó una heurística para predecir los artículos más citados en cada tema a través de métricas.

RESULTADOS:

Un total de 4208 tweets de 286 artículos citados de JMIR se compararon con los tweets recibidos los primeros 30 días después de la publicación, la mayoría de los tweets realizados en el día en que se publicó un artículo (1458/3318, 43,94% de todos los tweets en una período de 60 días) o el día siguiente (528/3318, 15,9%), seguido de una rápida descomposición. Las correlaciones de Pearson entre tweets y citas tuvieron una moderación  estadísticamente significativa, con coeficientes de correlación que van desde 0,42 hasta 0,72 para las citas de Google Académico, pero esta relación no fue tan precisa para las citas de Scopus y correlaciones de rangos. Aquellos artículos altamente twitteados fueron 11 veces más propensos a ser citados que los artículos menos twitteados 

CONCLUSIONES:

Los tweets recibidos puede predecir aquellos artículos que son más altamente citados dentro de los 3 primeros días de la publicación del artículo. la actividad de los medios sociales o bien aumenta las citas o refleja las cualidades subyacentes del artículo para predecir futuras citas, pero el verdadero uso de estos indicadores es medir un concepto distinto de impacto social. Se proponen medidas de impacto social, sobre la base de tweets para complementar las estadísticas de citas tradicionales. El factor twimpact propuesto puede ser una métrica útil y oportuna para evaluar la absorción de los resultados de la investigación y para filtrar resultados de la investigación en tiempo real.

Los avances en la revisión por pares

upvoye-620x342

Los avances en la revisión por pares

ScienceOpen 1 de febrero de, el año 2016 Autor: Jon Tennant

Ver original

No es demasiado difícil percibir que las prácticas y actitudes en relación con lo que se ha denominado “ciencia abierta” están evolucionando, lo que a su vez conlleva que el sistema de evaluación científica se equipare a estas nuevas prácticas. Aunque estamos más familiarizados con el debate sobre la mejor manera de aplicar el libre acceso a los artículos de investigación y los datos; las discusiones con respecto a la estructura, la gestión y el proceso de revisión por pares son, quizás, aunque de forma más matizada equiparables en importancia a aquellas.

La revisión por pares es de enorme importancia para la gestión del contenido del registro científico publicado y para la evolución de las carreras académicas de los científicos que lo producen. Se percibe como el estándar de oro de la publicación académica, y para muchos determina si la investigación puede considerarse científicamente válida. En consecuencia, la revisión por pares es un componente vital en el núcleo del proceso de comunicación de la investigación, con repercusiones en la estructura misma de la ciencia, que opera en gran medida a través de un sistema de recompensas e incentivos basados ​​en la publicación.

A pesar de esta clara importancia de la revisión por pares, cada vez hay más pruebas de que los errores son cada vez más frecuentes en el proceso. Estos van desde errores de de mantenimiento simples basados ​​en las diferencias de opinión sobre el impacto percibido de la investigación o el rechazo de lo que hasta ahora era una de las piezas seminales de investigación, o cuando un trabajo fraudulento o incorrecto no poder ser detectado y pasa a formar parte del registro científico permanente. Los intentos para reproducir la forma en la revisión por pares demuestran que la revisión por pares generalmente es adecuada para la detección de un trabajo de calidad, pero a menudo no reconoce la investigación más impactante. Muchos consideran, además, el modelo tradicional de revisión por pares como innecesario, ya que causa retrasos en la publicación y comunicación de la investigación novedosa. Además, algunos consideran la tradicional revisión por pares como un proceso profundamente viciado que opera dentro de un sistema cerrado y opaco en el que es imposible rastrear la discusión y los cambios realizados en la investigación original a lo largo del proceso, así como el proceso de decisión que lleva a su publicación. Esto significa que la revisión por pares a menudo se ve como perjudicial para la investigación, proporcionando un mecanismo de cierre para proteger el status quo y suprimir la investigación que se considera radical o innovadora.

image description

El actual sistema de comunicación de la investigación y la evaluación

A la luz de esto, ha habido un creciente impulso hacia la «revisión por pares abierta ‘, con lo cual el proceso se hace más transparente a través de diversos medios. Un artículo publicado en el British Medical Journal afirmó que la revisión por pares es «lenta, cara, malgasta el tiempo académico, es altamente subjetiva, propensa al sesgo, inclinada al uso indebido en la detección de graves defectos, y casi inútil en la detección del fraude». A pesar de todos estos problemas potenciales la revisión por pares en su forma actual que se ha mantenido a lo largo del tiempo, y aún continuará teniendo una gran influencia en la investigación, si bien hay que decir estamos presenciando el comienzo de una transformación del modelo tradicional.

El modelo tradicional de revisión por pares se basa en un sistema de evaluación previa de la publicación. Se ha dicho que el «modelo puede haber llegado a su fin social con el cambio tecnológico», y ya hay un debate encendido en torno a los nuevos modelos de revisión por pares, apareciendo nuevas plataformas para adecuarlo a los nuevos modelos de la era digital.

image description

Un sistema de potencial futuro para la evaluación científica

Estas discusiones en torno a la revisión por pares en general se pueden clasificar en cuatro categorías principales:

1. La manera en que los árbitros reciben reconocimiento por su trabajo y, en caso afirmativo, en qué forma;
2. Debe considerar que estos informes se hagan de manera pública o cerrada;
3. Los pares deben permanecer en el anonimato o firmar sus informes;
4. la revisión por pares debe hacerse antes o después del proceso de publicación.

 

Ver además otros post relacionados

 

 

Monográfico: Impacto y Evaluación de los repositorios OA

Acceso abierto. Impacto

Más MONOGRÁFICOS SOBRE BYD

Los repositorios juegan ya un papel importante en la comunicación científica, debido principalmente al creciente éxito de las iniciativas open access como el Ranking Web de repositorios que, utilizando técnicas cibermétricas, clasifica los repositorios académicos institucionales y temáticos más importantes.

También se han desarrollado indicadores cuantitativos que permitan describir sus contenidos y evaluar su uso e impacto. Existen estudios relevantes y directorios sobre la situación de los repositorios institucionales basados en su identificación/censo y en recoger las características que los definen (básicamente: software, disciplina y tipo y cantidad de documentos).

Existen otros trabajos en este ámbito que tienen como objetivo documentar la proliferación de alternativas al factor de impacto que han surgido en los últimos cinco años, coincidiendo con el aumento de la prominencia de la publicación de acceso abierto, y si esta tiene una incidencia sobre el impacto de las publicación en la comunicación científica. Entre los retos que tienen planteados los repositorios institucionales está el demostrar y cuantificar con datos objetivos que los trabajos disponibles en abierto se citan y se utilizan más que el resto. Algunos repositorios están incluyendo análisis del uso de sus documentos. También existen proyectos a nivel internacional dedicados a la elaboración de índices de citas. De momento estas iniciativas son aisladas. Para obtener una evaluación precisa será necesario integrar los resultados procedentes de distintas instituciones y disciplinas tendentes a obtener indicadores globales que permitan la comparación entre autores, instituciones, etc

En este monográfico de InfoDoc recogemos las publicaciones más relevantes que han tratado este tema.

Acciones inmediatas para mejorar la visibilidad científica

25058073741_32a26059bc_b_d

En internet el producto último son los portales, su visibilidad y aceptación depende de su posicionamiento, usabilidad, contenidos, diseño y rapidez. Visibilidad implica estar en la Web y poder ser encontrado y visitado.La disponibilidad a través de la Web de información referencial y, sobre todo, de documentos a texto completo en acceso libre aporta un servicio de valor añadido de gran utilidad para el profesional y el investigador. Supone una excelente oportunidad para el autor, al cual le garantiza una alta visibilidad de su producción y por lo tanto un alto reconocimiento profesional. El 85% de investigadores comienzan la búsqueda documental en Internet, y utilizan motores de búsqueda para satisfacer sus necesidades de información. Por lo tanto es importante que nuestra investigación este indexada a través de los principales canales de investigación, con metadatos de calidad que garanticen su capacidad de recuperación.

Las nuevas posibilidades de comunicación también ofrecen nuevas oportunidades para la formación, el análisis y evaluación de la investigación. Los científicos y los investigadores están utilizando de forma rutinaria las aplicaciones basadas en web en sus investigaciones. En prácticamente todos los ámbitos de investigación, las herramientas digitales se han convertido en indispensables, la aparición de nuevos paradigmas como el acceso abierto, métricas alternativas y redes sociales son un ejemplo importante de cómo estos cambios han afectado a la forma en que los estudiosos piensan en el futuro de las publicaciones académicas. Estos acontecimientos han creado nuevas posibilidades y desafíos en la evaluación de la calidad de la investigación, también a nivel de investigadores individuales y desarrollos de carrera. Es en este nivel donde la biblioteca juega un papel indispensable en la formación de competencias, destrezas y habilidades informativas que repercutirá en la valoración social del profesional, su satisfacción laboral y en última instancia en la calidad de la propia institución. Se destacan los aspectos más sobresalientes en los nuevos paradigmas de comunicación y difusión científica y se recomiendan las acciones de formación más adecuadas al respecto.

RECOMENDACIONES

  • Tener en cuenta la calidad de las publicaciones
  • Selección meditada de la revista donde se va a publicar.Lo óptimo es seleccionar: revistas indexadas con índice de calidad relativo (Journal Citation Reports,.Scopus)
  • Cuidado con el número de autores que publican
  • Tener una identidad digital unívoca (ORCID)
  • Incluir toda la producción del investigador en repositorios: Incrementa la visibilidad
  • Incluir la producción del investigador en herramientas 2.0. (Gestores sociales, etc.)
  • Incluir la producción en herramientas especializadas en gestión de la investigación: Ej. Researcher ID, Research Gate, Academia.edu, ISSRN
  • Divulgar la información sobre nuestra investigación en blog y en redes sociales genéricas y especializadas.

Escucha

¿Qué tiene que saber un investigador sobre acreditación y visibilidad científica?

Consultar

Alonso-Arévalo, Julio Alfabetización en Comunicación Científica: Acreditación, OA, redes sociales, altmetrics, bibliotecarios incrustados y gestión de la identidad digital., 2014 . In Alfabetización informacional: Reflexiones y Experiencias, Lima (Perú) , Lima-Perú, 20 Y 21 de marzo del 2014. (Unpublished) [Conference paper]

Texto completo conferencia