Archivo de la etiqueta: Evaluación

Alternativas a la revisión por pares en la financiación de proyectos

peer_review

Guthrie, S., B. Guérin, et al. [e-Book]  Alternatives to Peer Review in Research Project Funding. Santa Monica, CA, RAND, 2013

Descargar

Este documento proporciona una visión general de una serie de alternativas a revisión por pares para evaluar las solicitudes de financiación de la investigación , y es una actualización y ampliación de 2011 el informe de RAND Europa sobre Alternativas a revisión por pares en la Investigación-Financiación del proyecto (TR-1010-DH). Está destinado a ser utilizado como una herramienta por quienes financian la investigación para ayudar a desarrollar un enfoque más adecuado para la financiación de sus necesidades específicas de investigación . Esta actualización incluye un nuevo marco para la consideración de revisión por pares y seis nuevos ejemplos de posibles alternativas a los aspectos específicos del enfoque de evaluación por pares : la excelencia sin restricciones, la financiación condicionada, a través de un mentor , puntuación,  iterativo y al azar.

Este documento ha sido elaborado por la unidad de investigación del Departamento de RAND Europe’s Department of Health-funded Policy Research in Science and Medicine (PRiSM). PRiSM pretende proporcionar la investigación, el análisis y el asesoramiento para apoyar la aplicación efectiva a la mejor estrategia para la investigación y para apoyar la toma de decisiones más amplia en el sector de la investigación en salud. Este es un informe independiente encargado y financiado por el Programa de Investigación de Políticas del Departamento de Salud. Los puntos de vista expresados ??no necesariamente son los del Departamento. RAND Europe es un instituto de investigación política sin fines de lucro independiente que forma parte de la Corporación RAND. Comparte la misión de mejorar la política y la toma de decisiones a través de la investigación y el análisis objetivo . Los clientes de RAND Europa incluyen a los gobiernos europeos, instituciones, organizaciones no gubernamentales y empresas con la necesidad de un análisis riguroso, independiente y multidisciplinar. Este informe ha sido revisado de acuerdo con las normas de garantía de calidad de RAND .

Evaluación de Apps de Lectura e Investigación

Publicado en Octubre 6, 2014 por julio

Evaluación de Apps de Lectura e Investigación
Workshop Rebiun 2014
de Julio Alonso Arévalo el 1 de octubre de 2014

[]

Ver PREZI

El Informe Horizon NMC 2014 HigherEducationEdition es un esfuerzo de colaboración entre el NMC y la EDUCAUSE LearningInitiative (ELI), un programa de EDUCAUSE.  Se trata de un proyecto de investigación diseñado para identificar y describir las tecnologías emergentes que puedan tener un impacto en el aprendizaje, la enseñanza y la investigación creativa en la educación. Según el informe Horizon 2014 sobre  punto 2. Integración entre aprendizaje en línea, híbrido, y colaborativo: esta tarea orientará los cambios en la educación superior en los próximos uno a dos años. Tal como expone los paradigmas educativos están cambiando con una tendencia mayor hacia el aprendizaje en línea, aprendizaje mixto, y hacia nuevos modelos de aprendizaje colaborativo. Para los estudiantes que ya pasan mucho de su tiempo libre en Internet, es importante el aprendizaje y el intercambio de nueva información. Las instituciones que adoptan modelos de aprendizaje híbrido presencial, en línea, tienen el potencial para aprovechar las habilidades que los estudiantes en línea ya han desarrollado independiente de la universidad. Los entornos de aprendizaje en línea pueden ofrecer diferentes ventajas a  la enseñanza presencial, incluyendo las oportunidades para una mayor colaboración, y la dotación de habilidades digitales más fuertes entre los estudiantes. Los modelos híbridos, cuando se diseñan e implementan con éxito, permiten a los estudiantes viajar al campus para algunas actividades, mientras que utilizan la red para las demás tareas, aprovechando lo mejor de ambos entornos.

Estas nuevas formas de aprendizaje basadas en tecnologías móviles han sido bautizadas como M-Learning (Mobile Learning) se trata  de un nuevo modelo que surge de la adaptación del e-learning a los nuevos dispositivos móviles, cuyo objetivo es  explotar todo su potencial didáctico en los procesos de enseñanza-aprendizaje. Lo que ha llevado aparejado la necesidad de nuevas aplicaciones móviles enfocadas al ámbito educativo y el desarrollo de un nuevo lenguaje.

Actualmente se calcula que existen más de un millón de aplicaciones móviles en el mundo, tanto en el sistema Android como en el sistema IOs. Debido a la gran oferta de aplicaciones educativas, docentes y de investigación  como formadores y usuarios estamos obligados a conocer la aplicación adecuada a nuestros intereses.

Variaciones en los tipos de citas a través de disciplinas, tipos de documentos, trayectorias y perfiles profesionales

[]

Basado en:

Admin, B. (2014). What shapes the citing of academic publications. Impact of Social Sciences.

Ver Original

Resumen

  • Las tasas de citación se utilizan como base para el seguimiento del impacto académico. La forma y tasas de citación varían ampliamente de unas a otras disciplinas académicas.
  • Existen diferencias sustanciales en la tasa general de cita entre diferentes disciplinas, las disciplinas con más capacidad de cita (incluyendo la auto-cita) son las ciencias, después las ciencias sociales y por último las humanidades
  • El tipo de documento publicado afecta las tasas de citas, por ejemplo, un libro tarda más tiempo en ser citado, pero será citado durante un periodo de tiempo más largo.
  • EL momento profesional y la trayectoria académica de los investigadores es otro factor importante en las tasas de citación.

Entender los patrones de citas y cómo podrían mejorarse, no es una cosa fácil, pues exige una buena dosis de conocimiento del contexto en que se desenvuelve cada área de conocimiento. Las citas que un investigador puede obtener dependen de varios factores clave – especialmente estará en función del país, la edad, trayectoria y otros factores como las características propias de cada disciplina y subdisciplina.

Que una obra sea citada no quiere decir que haya sido citada por su calidad. Existe un mito sobre las citas negativas, y se dice que cualquiera puede incluir a propósito un error importante en una investigación con el fin de conseguir citas. Esto que en principio puede ser posible, no lo es en la práctica, ya que se hay estudios que ponen de manifiesto que los investigadores no suelen citar los trabajos con errores, pues en un análisis que incluía 10.400 artículos científicos, sólo se encontró que los comentarios negativos que acompañan de forma explícita a una cita solo fueron 10. Por lo general si se piensa que un documento es malo, simplemente no se cita.

Es difícil para un investigador individual entender y emitir juicios razonables acerca de lo que podría o debería hacer para tener mayor impacto. Cuando a algunos investigadores se les pide evaluar a sus colegas – para mejora profesional, sistemas de evaluación o de promoción, asesoramiento y tareas de administración departamental – deberían, tener especial cuidado en apreciar las complejidades de cada disciplina en particular. No hay un arquetipo único realista de cómo se debe desarrollar una carrera académica, sino más bien una serie de diferentes trayectorias, ya que las características y necesidades de unas y otras disciplinas, departamentos y laboratorios de investigación incluyen diferentes tipos de contribuciones y características propias.

Por una parte hay que considerar las diferentes velocidades con que se citan las publicaciones  de unas y otras disciplinas -indice de latencia-  que a groso modo se alinearían en este orden: ciencia, tecnología, ingeniería y matemáticas, ciencias sociales y humanidades. El artículo promedio en Ciencias Sociales y Humanidades se cita menos de una vez al año. (Anne-Wil Harzing, 2010)

En segundo lugar también existe una influencia global de la edad y la experiencia en la formación de la acumulación de citas a lo largo de la vida de los investigadores – que incluye aspectos tales como su experiencia o su éxito en conseguir una investigación universitaria intensiva -. ya que esta trayectoria tiene su incidencia sobre las propias publicaciones, perfiles, características y tasas de citación.

1.1 Las variaciones en los tipos de citas a través de disciplinas. 

Durante muchos años (de 2004 a 2009) la principal revista especializada del Reino Unido para el sector universitario, Times Higher Education o LAS, publicaba tablas de clasificación de universidades del mundo que pretendían mostrar su calidad académica derivada únicamente de los recuentos brutos de citas. De hecho, la clasificación LA mostraba principalmente lo importantes que eran las facultades de Medicina y Ciencias Físicas en relación con otras disciplinas de sus universiades, de manera que universidades con facultades de Medicina y Físicas grandes quedaban muy por encima de cualquier facultad de Ciencias Sociales y Humanidades. Sin embargo, el poder de centrarse en lo que es fácil o inmediatamente cuantificable fue tal que tuvieron que pasar muchos años para que se admitiera que aquel enfoque era deficiente.

La figura 1.1 muestra las raíces de este problema utilizando el  criterio  que  mide  el número total de citas de artículos de revistas en un año determinado, dividida por el número de artículos de revistas producidas en el mismo año, -según consta en ISI Web of Science (ISI), la base de datos en línea de citas publicada por Thomson Reuters-. La tasa de citas en Medicina es mayor que la tasa en Ciencias Sociales en un factor de 8 a 3, y mayor que la de el Derecho y Humanidades en un factor de 8 a 1. De manera que los artículos de Ciencias Físicas se citan dos veces más que los de Ciencias Sociales, y cuatro veces más que los de Derecho y Humanidades.

[]

Figura 1.1: Las diferencias en las tasas de citación promedio entre grandes grupos de disciplinas

Hay muchas razones para seguir este patrón. En Medicina la mayoría de los artículos publicados tienen un límite de 3.000 palabras, mientras que la norma en Ciencias Sociales es de alrededor de 6.000 a 9.000 palabras de extensión por artículo. Las Ciencias Médicas también han desarrollado una cultura fuerte y rigurosa de “revisión sistemática”, que requiere que todos los estudios relevantes se citen al principio. Este enfoque muy estructurado y bien definido para la revisión de la literatura se refleja en las Ciencias Físicas. Pero la cultura de la revisión sistemática o la referencia completa está lejos de haberse establecido en la mayoría de las disciplinas de las Ciencias Sociales. Y más aún en las Humanidades, donde la revisión sistemática, está prácticamente ausente.

Las diferencias en los patrones de citación entre las Ciencias Médicas/Físicas y las Ciencias Sociales y Humanidades también se pueden explicar por el desarrollo de una cultura de “normalización científica”, muy consolidada en las primeras; mientras que en las Ciencias Sociales todavía hay corrientes teóricas fundamentalmente opuestas en la mayor parte de las disciplinas componentes. De manera que en las Ciencias Sociales las citaciones pueden convertirse en una forma de tomar partido sobre lo que constituye un argumento válido o no. Todas estas características están aún más fuertemente marcadas en las humanidades, donde la referencia es a menudo una cuestión de elección personal.

Cuando se discuten patrones de citación vale la pena mencionar brevemente varios hechos técnicos sobre la cobertura de ISI Web of Knowledge.

1. En primer lugar, el número de artículos de revistas es mucho más amplio para las Ciencias Médicas y Físicas, es decir aquellas áreas en las que desarrolló la base de datos desde el principio de su existencia.

2. En segundo lugar, ISI no incluye libros, que son un elemento importante de la comunicación profesional en Ciencias Sociales y Humanidades, -aunque sí incluye reseñas de libros- y por lo tanto tiende a bajar el promedio de citas de estas disciplinas.

3. En tercer lugar, sabemos que las tasas de auto-citas (donde los académicos citan su propio trabajo) varían dramáticamente en todas las disciplinas – por ejemplo, la auto-cita es dos veces más alta en Ingeniería y en Ciencias Políticas. Por lo que hay buenas razones para argumentar sin embargo, que las tasas de citación deben evaluarse dejando fuera auto-citas. También hay algún trabajo preliminar de investigación que sugiere que los autores que se auto-citan consiguen ser más citados por otras personas que aquellos otros que son más dados a no hacerlo.

Por lo tanto las comparaciones de tasas de citación o calificaciones obtenidas por diferentes investigadores deben hacerse en función de los principales grupos de disciplinas. La naturaleza de una materia, las formas en que genera diferentes tipos de publicaciones, cómo son las prácticas relacionadas con la citación y como han desarrollado con el tiempo las revisiones bibliográficas , son demasiado distintas en los diferentes grupos de asignaturas para hacer comparaciones intergrupales.

[]

Figura 1.2: Las diferencias en las tasas de citación promedio entre grandes grupos de disciplinas.

 

Por último es importante destacar que la Bibliometría y las herramientas de citación se han desarrollado inicialmente en Estados Unidos en particular a tavés de ISI Web of knowledge, por lo que sigue teniendo una orientación fuerte o sesgo, hacia publicaciones escritas en inglés. Todos los sistemas de seguimiento de citas han comenzado a diversificarse en la última década, pero el progreso ha sido bastante lento. Por lo que aquellos autores que publican exclusivamente en inglés tendrán más capacidad de recibir citas, que aquellos otros que publican tanto en Inglés como en otras lenguas, y los autores que publican exclusivamente en un idioma que no es Inglés tendrán una representación mucho más baja.

1.2 carreras académicas y la acumulación de citas. 

Los patrones de citas están estrechamente vinculados al desarrollo profesional académico, es decir, tiene que ver donde se encuentra el investigador en su trayectoria profesional y la ruta que están siguiendo. Este proceso tarda en desarrollarse. El número de citaciones está por lo tanto muy en sintonía con la edad, el sexo, el tamaño del país, y otras variables demográficas.

Los investigadores modernos se sienten a menudo bajo presiones imposibles de realizar de manera brillante en muchos ámbitos diferentes de actividades, tales como “descubrimiento” vanguardia investigación, integración académica del conocimiento, enseñanza, y funciones de gestión. Estas expectativas combinados pueden no ser reunidas en una persona, en un sólo tiempo o incluso durante  su carrera profesional; y sin embargo, a menudo se encuentran lejos de la imagen de lo que sería el “tipo ideal”.de académico Esta imagen es poco realista porque no toma suficientemente en cuenta la especialización contemporánea de diferentes trayectorias profesionales.

La investigación moderna es cada vez menos una ocupación solitaria de un erudito. Ahora se trabaja en equipos de investigación, hecho reforzado por la necesidad de una alta especialización. Por último, las diferentes disciplinas varían mucho en cómo están configurados los roles académicos.

Para la minoría de investigadores ‘estrella’, las citas por año tienden a aumentar rápidamente en la parte final de su carrera por varias razones. En principio sus obras más maduras pueden alcanzar un amplio reconocimiento, a menudo porque tienen fuertes efectos integradores dentro de una disciplina; o su trabajo anterior puede adquirir la condición de ‘atemporal’ o ‘estándar de referencia’ y así seguirá siendo citado a pesar de ser publicaciones antiguas (garantizando también más atención a sus trabajos actuales).

[]

Figura 1.3: citas hipotéticas perfiles a través del tiempo para tres tipos principales de publicación

Estos factores demográficos clave interactúan con el patrón característico de citas, que se muestra en la Figura 1.3. Por lo general hay un retraso inicial en el reconocimiento o la asimilación de los artículos publicados de alrededor de un año más o menos; y este periodo es más largo para un libro, que generalmente es de uno a cuatro años después de la publicación en el caso de las Ciencias Físicas y Sociales, y más en las Humanidades.

En las diferentes disciplinas varían los patrones de citación en función de los tipos de documentos como documentos de trabajo y artículos de revistas. En Ciencia Política, por ejemplo, los documentos de trabajo tienen poca o ninguna influencia, y sin embargo la publicación de un artículo de revista es el estímulo clave. Sin embargo, en Economía los documentos de trabajo son muy importantes. Por lo tanto los documentos de trabajo en esta área permiten tener impactos rápidamente; pero posteriormente, dejan de ser citados cuando se publica la versión completamente revisada como artículo de revista a los 2 o 3 años después.

1.3 Las diferentes trayectorias profesionales y perfiles publicaciones. 

Como antes se mencionaba la trayectoria profesional tiene una importante influencia en los perfiles de publicación y citas. La trayectoria profesional de un investigador abarca estas seis etapas:

1. Desarrollo de habilidades de investigación y competencias que son en muchos sentidos, es el primer aspecto a desarrollada en el perfil de cualquier investigador, ya que todo el mundo accede a la profesión, y posteriormente debe completar un doctorado. Esta es un área donde los investigadores pueden seguir potenciando sus competencias a lo largo de sus carreras.

2. Capacidad de autoría es normalmente la segunda dimensión que los investigadores tiene que desarrollar desde el principio, por lo general un poco a la zaga de las habilidades de investigación expuestas anteriormente. Cualquiera que sea el patrón a seguir, durante los últimos años de su trabajo doctoral debe comenzar a desarrollar las formas de la escritura profesional. La tesis doctoral a menudo puede ser la pieza más larga de escritura que realiza un primer investigador en el inicio de su carrera académica.

3. Capacidades de enseñanza son la tercera dimensión que los aspirantes a académicos empiezan a desarrollar en los últimos años de su doctorado.

4. Capacidades de gestión de los académicos e investigadores en general son adquiridas informalmente como desarrollo de su carrera cuando asumen puestos de responsabilidad.

5. Trabajo en equipo (Networking) es una habilidad académica que se desarrolla con el tiempo y está claramente vinculada a la investigación en varias dimensiones. En su forma más básica, la capacidad de trabajar en equipos de dos, tres o algunos compañeros de los investigadores y los coautores que tendrá una influencia importante en la calidad y el tipo de investigación que cualquier académico puede emprender.

6. Celebridad. Cuando el investigador es requerido para formar parte de comités científicos, se trata de un aspecto que se desarrolla cuando ya tiene una carrera ya bien consolidada y un prestigio profesional.

Plum Analythics : portal de métricas de investigación de Ebsco

Plum (Cereza) Analytics es el primer proveedor de Altmetrics que va más allá de las métricas de artículos y realiza un seguimiento de todos los productos de la investigación en cualquier forma, proporcionando una poderosa herramienta que aumenta la capacidad de la métrica tradicional.

Plum Analytics es el proveedor de PlumX ™, un producto que ofrece una imagen más completa de la investigación y responde a preguntas sobre el impacto de investigación para cualquier persona, incluidos los investigadores, bibliotecarios, administradores y financiadores. PlumX  reúne a las métricas a través de cinco categorías de uso,a través de la captura de la citas en los medios sociales.

Los documentos incluyen: artículos, entradas del blog, capítulos de libros, libros, casos, ensayos  clínicos,comunicaciones a congresos, conjuntos de datos, cifras, subvenciones, entrevistas, cartas, medios de comunicación, patentes, posters, presentaciones, código fuente, tesis / disertaciones, vídeos, páginas web.

PlumX ofrece una nueva manera de ver la influencia que tiene los investigadores, grupos e instituciones. Un carrusel de datos en la parte superior de la página permite acceder fácilmente a los tipos de producción y a los mejores indicadores recogidos en 5 categorías: citaciones, uso, menciona, captura, y medios sociales.

[]

PlumX ofrece visualizaciones para ver el impacto relativo de la producción de un investigador. También se puede ver el impacto de un departamento, laboratorio, revista, asunto o cualquier agrupación que tenga sentido para una organización. Al hacer clic en el botón “Ver Sunburst” se visualizala tabla de rayos de sol que permite ver por “Tipo de documento” e “Impacto”.

[]

De este modo proporcionando un circuito de retroalimentación para que los investigadores puedan ver qué plataformas son más apropiadas en cuanto al impacto para difundir la investigación futura.

[]

 

 

También es posible añadir widgets de PlumX a su repositorio institucional, perfiles de investigadores,  sitios web del departamento, o blogs, etc.

Declaración de San Francisco sobre Evaluación de la Investigación (DORA)

[]

La Declaración de San Francisco sobre Evaluación de la Investigación (DORA)

Descargar

La Declaración de San Francisco sobre Evaluación de la Investigación (DORA), impulsada por la Sociedad Americana de Biología Celular (BCSV), junto con un grupo de directores y editores de revistas científicas, reconoce la necesidad de mejorar la forma en que se evalúan los resultados de la investigación científica . El grupo se reunió en diciembre de 2012 durante la reunión anual  BCSV en San Francisco e hizo circular un proyecto de declaración entre los diversos grupos de interés.Se trata de una iniciativa mundial que abarca todas las disciplinas académicas. Animamos a las personas y organizaciones que están preocupados por la evaluación adecuada de la investigación científica a que firmen DORA.

Poniendo ciencia en la evaluación de la investigación. 

Hay una necesidad apremiante de mejorar la forma en que los resultados de la investigación científica son evaluados por las agencias de financiación, instituciones académicas y otros. Para solucionar este problema, un grupo de directores y de editores de revistas académicas se reunió durante la Reunión Anual de la Sociedad Americana de Biología Celular (BCSV) en San Francisco, CA, el 16 de diciembre de 2012. El grupo desarrolló una serie de recomendaciones, conocidas como la Declaración de San Francisco de Evaluación de la Investigación. Invitamos a los interesados en todas las disciplinas científicas que indiquen su apoyo al añadir  sus nombres a la presente Declaración.

Los resultados de la investigación científica son muchos y variados, que incluyen: artículos de investigación que reportan nuevos conocimientos, datos, reactivos y software, propiedad intelectual, así como jóvenes científicos altamente capacitados. Los organismos de financiación, las instituciones que emplean los científicos y los propios científicos, necesitan, y es necesario, evaluar la calidad e impacto de la producción científica. Por tanto, es imperativo que la producción científica se mida con precisión y se evalúe con prudencia. El índice de impacto de las revistas se utiliza con frecuencia como parámetro primario con el que comparar la producción científica de las personas y las instituciones. El índice de impacto de revistas, según los cálculos de Thomson Reuters, fue creado originalmente como una herramienta para ayudar a los bibliotecarios a identificar revistas que comprar, no como una medida de la calidad científica de la investigación en un artículo. Con esto en mente, es importante entender que el índice de impacto tiene una serie de deficiencias bien documentadas como herramienta para la evaluación de la investigación. Estas limitaciones incluyen:

a) la distribución de citas en revistas está muy sesgada [1-3],
b) las propiedades del índice de impacto son específicas del campo científico considerado: es una combinación de varios tipos de artículos, muy diversos, incluyendo artículos de investigación primaria y opiniones [1, 4];
c) Los índice de impacto se pueden manipular (o “trastear”) por la política editorial [5],y d) los datos utilizados para el cálculo de los índices de impacto de las revistas no son ni transparentes ni están abiertamente a disposición del público [4 , 6, 7].

A continuación se hace una serie de recomendaciones para mejorar la forma en que se evalúa la calidad de los resultados de la investigación. Los resultados que no sean artículos de investigación crecerán en importancia en la evaluación de la eficacia de la investigación en el futuro, pero el trabajo de investigación revisado por pares continuará como un resultado central para informar sobre la evaluación de la investigación. Por lo tanto, nuestras recomendaciones se centran principalmente en las prácticas relativas a los artículos de investigación publicados en revistas revisadas por pares, pero pueden y deben ampliarse mediante el reconocimiento de productos adicionales, tales como bases de datos, como resultados de la investigación importantes. Estas recomendaciones están dirigidas a los organismos de financiación, las instituciones académicas, las revistas, las organizaciones que suministran métricas, y a los investigadores individuales.

Una serie de temas recorren estas recomendaciones: 

• la necesidad de eliminar el uso de métricas basadas en revistas, tales como índice de impacto de revistas, en la financiación, en los nombramientos, y en las consideraciones de promoción;

• la necesidad de evaluar la investigación por sus propios méritos y no en base a la revista en la que se publica la investigación, y

• la necesidad de aprovechar las oportunidades que ofrece la publicación en línea (como relajar los límites innecesarios en el número de palabras, figuras y referencias en artículos, y la exploración de nuevos indicadores de la importancia y el impacto).

Reconocemos que muchas agencias de financiación, instituciones, editores e investigadores ya están alentando prácticas mejoradas en la evaluación de la investigación. Estas medidas están empezando a aumentar el impulso hacia enfoques más complejos y significativos para la evaluación de investigación que ahora se puede realizar y que son adoptadas por todos los principales grupos involucrados.

Los firmantes de la Declaración de San Francisco en la evaluación de la investigación apoyan la adopción de las siguientes prácticas en la evaluación de la investigación.

Recomendación General. 

1. No utilice métricas basadas en revistas, tales como índices de impacto de revistas, como una medida sustitutiva de la calidad de los artículos de investigación individuales, con el fin de evaluar las contribuciones de un científico, o en la contratación, promoción, o en las decisiones de financiación.

Para los organismos de financiación. 

2. Sea explícito acerca de los criterios utilizados en la evaluación de la productividad científica de los solicitantes de subvenciones y resaltar claramente, sobre todo para los investigadores en fase inicial, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.

3. A efectos de la evaluación de la investigación, considerare el valor y el impacto de los resultados de la investigación (incluidos los conjuntos de datos y software), además de las publicaciones de investigación, y considerare una amplia gama de medidas de impacto que incluya indicadores cualitativos del impacto de la investigación, como la influencia sobre la política y la práctica.

Para las instituciones. 

4. Sea explícito acerca de los criterios utilizados para llegar a la contratación, la tenencia y las decisiones de promoción, destacando con claridad, sobre todo para los investigadores en fase inicial, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.

5. A efectos de la evaluación de la investigación, considerare el valor y el impacto de los resultados de la investigación (incluidos los conjuntos de datos y software), además de las publicaciones de investigación, y considerare una amplia gama de medidas de impacto que incluya indicadores cualitativos del impacto de la investigación, tales como la influencia sobre la política y la práctica.

Para editoriales. 

6. Reduzca en gran medida el énfasis en la revista del índice de impacto como una herramienta de promoción, idealmente dejando de promover el índice de impacto o mediante la presentación de la métrica en el contexto de una variedad de métricas basadas en revistas (por ejemplo, índice de impacto de 5 años, Eigenfactores [8] , SCImago [9], índice h, editorial y tiempos de publicación, etc) que proporcionan una visión más rica del rendimiento de la revista.

7. Ponga a disposición una serie de indicadores a nivel de artículo para fomentar un cambio hacia la evaluación basada en el contenido científico del artículo en lugar de métricas sobre la revista en que fue publicado.

8. Fomente prácticas de autoría responsables y la provisión de información sobre las contribuciones específicas de cada autor.

9. Si la revista es de libre acceso o suscripción, elimine todas las limitaciones de reutilización en las listas de referencias de artículos de investigación, que estarán disponibles bajo la licencia “Creative Commons Public Domain Dedication” [10].

10. Elimine o reduzca las restricciones en el número de referencias en artículos de investigación y, en su caso, dirija la citación de la literatura primaria en favor de las revisiones con el fin de dar crédito al grupo(s) que registró por primera vez un hallazgo.

Para las organizaciones que proveen métricas. 

11. Sea abierto y transparente, proporcionando datos y métodos utilizados para el cálculo de todos los indicadores.

12. Proporcione los datos bajo una licencia que permita la reutilización sin restricciones, y facilite el acceso a los datos de cálculo, siempre que sea posible.

13. Tenga claro que la manipulación inadecuada de los indicadores no será tolerada; sea explícito acerca de lo que constituye la manipulación inadecuada y qué medidas se tomarán para combatir esto.

14. Cuando se utilizan, agregan o comparan indicadores tenga en cuenta las diferencias existentes entre los distintos tipos de artículos (por ejemplo, revisiones frente a artículos de investigación), y en las diferentes áreas científicas.

Para los investigadores. 

15. Cuando participe en los comités de toma de decisiones sobre la financiación, la contratación, la tenencia, o la promoción, realice evaluaciones basadas en el contenido científico en lugar de en las métricas de publicación.

16. Siempre que sea necesario, cite la literatura primaria en que las observaciones fueron por primera vez publicadas con el fin de dar el crédito a quien merece ese crédito.

17. Use una variedad de métricas de artículos e indicadores sobre las declaraciones personales o de apoyo, como evidencia del impacto de los artículos publicados individuales y otros productos de la investigación [11].

18. Cambie las prácticas de evaluación de la investigación que se basan inadecuadamente en los índices de impacto y promueva y enseñe las mejores prácticas que se centran en el valor y la influencia de los resultados específicos de la investigación.

Referencias

1. Adler, R., Ewing, J., and Taylor, P. (2008) Citation statistics. A report from the International Mathematical Union. www.mathunion.org/publications/report/citationstatistics0
2. Seglen, P.O. (1997) Why the impact factor of journals should not be used for evaluating research. BMJ 314, 498–502.
3. Editorial (2005). Not so deep impact. Nature 435, 1003–1004.
4. Vanclay, J.K. (2012) Impact Factor: Outdated artefact or stepping-stone to journal certification. Scientometrics 92, 211–238.
5. The PLoS Medicine Editors (2006). The impact factor game. PLoS Med 3(6): e291 doi:10.1371/journal.pmed.0030291.
6. Rossner, M., Van Epps, H., Hill, E. (2007). Show me the data. J. Cell Biol. 179, 1091–1092.
7. Rossner M., Van Epps H., and Hill E. (2008). Irreproducible results: A response to Thomson Scientific. J. Cell Biol. 180, 254–255.
8. http://www.eigenfactor.org/
9. http://www.scimagojr.com/
10. http://opencitations.wordpress.com/2013/01/03/open-letter-to-publishers
11. http://altmetrics.org/tools/

App UGRinvestiga: ranking de los investigadores de la Universidad de Granada.

Conoce el impacto científico de los investigadores de la Universidad de Granada. UGRinvestiga ofrece rankings por ramas, disciplinas y especialidades de sus investigadores a partir de los datos de Google Scholar empleando número de citas e índice h.

La función esencial de UGRinvestiga es permitir conocer los investigadores más citados de la universidad de Granada. Los indicadores bibliométricos se actualizan con un carácter trimestral

La Universidad de Granada recoge en la página web http://apps.ugr.es un listado de las principales aplicaciones para móviles que se desarrollan en el seno de la institución y que se distribuyen de forma gratuita. Las aplicaciones están destinadas a usos docentes, investigadores o de gestión, y tienen como finalidad informar o mejorar los servicios que se ofertan desde la UGR.

La Biblioteconomía y Documentación española según Google Scholar Citations

 

 

Grupo EC3

Universidad de Granada

.

[]

Rankimg de autores ampliar

Se trata de una aproximación bottom-up que parte del trabajo realizado por los autores vinculados a una disciplina tal como se muestran en Google Scholar, que es la base de datos de información científica más comprehensiva que existe a día de hoy. Respondemos con ello a las llamadas públicas realizadas tanto por especialistas en bibliometría y evaluación científica como, en general, a una corriente de pensamiento que recorre todos los ámbitos científico-académicos dónde se reclama medir directamente el impacto real de las diversas unidades de análisis científica (individuo, grupo de investigación, organización, dominio temático), en lugar de seguir evaluando a los científicos e instituciones a partir del impacto de los medios o canales de difusión en los que estos publican sus resultados.

[]
Rankimg de revistas ampliar

 Y es Google Scholar, y en concreto en este caso Google Scholar Citations, la mejor fuente de datos para hacerlo y nos atrevemos a decir que la única que permite confeccionarlo hoy día, por cuanto que cubre muchísimos más documentos que cualquiera de los sistemas de información científica tradicionales, indiza toda la variedad de géneros documentales que emplean los científicos para transmitir los resultados de sus investigaciones (artículos de revistas, libros, tesis, informes, comunicaciones a congresos…), controla los documentos en todos los idiomas sin restricción, publicados en todos los países y, por último, recupera un porcentaje muy elevado de citas, muy superior a las bases de datos bibliográficas clásicas.

 

[]
Ranking editoriales ampliar

 

 

A partir del ranking de Autores españoles que publican en Biblioteconomía y Documentación y que cuentan con perfil público en Google Scholar Citations a fecha 22 de Enero de 2015, y de los documentos altamente citados  por los autores incluidos en dichos perfiles (percentil 90) se generan otros tres rankings: Revistas, editoriales e instituciones más citadas.

 

[]

Ranking Instituciones ampliar

La evaluación del impacto de Investigación de Excelencia 2014

[]

Manville, C., S. Guthrie, et al. [e-Book]  Assessing impact submissions for REF2014: An evaluation, RAND Europe, 2015.

Texto completo

El Marco de Investigación par la Excelencia (REF) es un nuevo sistema para evaluar la calidad de la investigación de las instituciones de educación superior en el Reino Unido (IES).  Por primera vez, parte de la evaluación incluyó el impacto más amplio de la investigación. RAND Europe fue el encargado de analizar el proceso de evaluación del impacto de las presentaciones REF, y para explorar las fortalezas y debilidades del proceso de evaluación en la obtención de resultados fiables, robustos y justos, e identificar los problemas imprevistos que aparecieran durante el proceso de evaluación y delinear las  implicaciones para el proceso de evaluación del impacto en los ejercicios futuros.

Este informe ofrece un resumen de los hallazgos principales, complementados por un análisis detallado del proceso usando para las siguientes metodologías: grupos de discusión con los miembrosl, los usuarios y evaluadores del impacto. Y es un complemento de un informe anterior de la investigación que llevó a cabo RAND Europe para el Reino Unido para la evaluación del proceso de financiación de los consejos de educación superior.

Los investigadores incorporan cada vez más herramientas para mejorar el impacto de su investigación

.

.

 

Jeroen Bosman and Bianca Kramer 101 Innovations in Scholarly Communication: How researchers are getting to grip with the myriad of new tools. LSE, 2015

.

Jeroen Bosman y Bianca Krame que trabajan en la Biblioteca de la Universidad de Utrecht, están llevando a cabo una encuesta mundial a la que ya han respondido 5.5000 autores de todo el mundo para investigar las nuevas herramientas que están incorporando los investigadores para mejorar los flujos de trabajo e impacto de sobre los resultados finales de su investigación. Estas encuestas serán valiosas para bibliotecas, organismos de apoyo a la investigación, proveedores de fondos, pero también para los propios investigadores. Además la utilización de algunas de estas herramientas hace que los flujos de trabajo de investigación sean más eficiente y ayudan a comprender como se están utilizando, y cuales se utilizan más para cada una de las tareas. Para los investigadores, es importante saber si el uso de una nueva herramienta reducirá el tiempo necesario para obtener los resultados deseados o incluso obtener resultados que hasta ahora eran imposibles de conseguir. Evaluar esto no es sencillo, porque el uso de herramientas, plataformas y sitios web está vinculado a todo el ciclo de investigación. Además la Interoperabilidad de las herramientas es clave.Pues las acciones y opciones disponibles que tienen los investigadores no son hechos aislados e individuales,  ya que están vinculadas a todo el ecosistema de herramientas. Los investigadores buscan flujos de trabajo más eficientes, pero también las grandes empresas que desarrollan una estrategia global desean entrar en el juego para tener su propia cartera de herramientas. Esa fue la razón estratégica que movió a Elsevier a adquirir el gestor de de referencias bibliográficas Mendeley, al igual que hizo SpringerNature con Digital Science.

Muchas de ellas posibilitan una ciencia cada vez más abierta, algunas facilitan el acceso abierto, los datos abiertos, la revisión por pares abierta o incluso la escritura abierta, lo que contribuyen a la apertura, ya que frecuentemente las empresas y editores privados establecen barreras de acceso tales como los derechos de autor para salvaguardar sus modelos de negocio.

.

.

El estudio analiza como los investigadores utilizan las nuevas herramientas en  en todas las fases del ciclo de investigación. Desde la Wikipedia en la fase inicial de análisis, las extensiones de chrome para la gestión de referencias, Open Library of Humanities y RIO Journal para la publicación, Twitter y los blogs para mejorar el alcance, hasta altmetrics, R-index y Publons para la revisión por pares y evaluación. Otras herramientas como DOI o ORCID hacen la ciencia más eficiente trabajando sobre sobre aspectos tales como la normalización y la interoperabilidad permitiendo que las plataformas de investigación estén mejor conectadas.

Casi la mitad de estas herramientas de comunicación académica fueron creadas después de 2013. Está tasa refleja la relativa facilidad con la que se pueden crear herramientas en línea que apoyan una nueva forma de trabajo, o que palían las fallas y omisiones en las herramientas existentes ofrecidas por los principales actores. El impulso de nuevas herramientas proviene de donantes (por ejemplo, exigiendo el archivo de datos de acceso abierto), sino también de los propios investigadores que quieren sacar provecho de las posibilidades de internet. Especialmente para la experimentación / recepción / minería de datos, la escritura, la selección de la revista, publicación y divulgación.

Normas ACRL para bibliotecas universitarias

Standards for Libraries in Higher Education,  [e-Book] ACRL, 2011.

Texto completo

Las normas para las bibliotecas de enseñanza superior están diseñados para guiar a las bibliotecas universitarias y de investigación a avanzar y mantener su papel como socios en la educación de los estudiantes, el logro de las misiones de sus instituciones y el posicionamiento de las bibliotecas como líderes en la evaluación y la mejora continua en sus campus.

Las bibliotecas deben demostrar su valor y documentar sus contribuciones a la eficacia institucional general y estar preparadas para hacer frente a los cambios en la educación superior. Estas normas fueron desarrolladas a través del estudio y consideración de cuestiones nuevas y emergentes, en función de las últimas tendencias de las bibliotecas, la educación superior y las prácticas de acreditación.

Estas normas difieren de las versiones anteriores mediante la articulación de las expectativas de las contribuciones de la biblioteca a la eficacia institucional, al proporcionar un marco global con un enfoque basado en los resultados en función de la recopilación de las evidencias tomadas de la formas más apropiada para cada institución.