Archivo de la etiqueta: Impacto

Características de los documentos con más de 1000 citas en ISI hasta 2011

[]

Ho, Y.-S. and M. Kahn “A bibliometric study of highly cited reviews in the Science Citation Index expanded™.” Journal of the Association for Information Science and Technology vol. 65, n. 2 (2014).  pp. 372-385.
http://dx.doi.org/10.1002/asi.22974

Algunos de los documentos muy citados, aquellos que se citaron al menos 1000 veces desde su publicación hasta 2011 (un total de 1,857), fueron identificados en la base de datos Science Citation Index Expanded ™ (Thomson Reuters, Nueva York) entre 1899 y 2011. Los datos se desglosan por fecha de publicación, número de citas, revistas, áreas temáticas, ciclos de vida de la citación, y publicaciones de los ganadores del Premio Nobel. Todo ello se dividió entre seis indicadores, publicaciones totales, publicaciones independientes, publicaciones colaborativas, publicaciones del primer autor, y publicaciones de un único autor para evaluar la publicación de las instituciones y los países. Autoría. Entre los autores más citados, en el 33% de los casos eran obras de un sólo autor, el 61 % eran de una sola institución, y el 83 % eran  de un único país.

Como crear tu perfil de investigador en Google Scholar Citations

 

dae04b14ed43da2fb0e637d257dc78cf

 

VER TUTORIAL 

Cómo crear perfil de investigador en Google Scholar Citations

 

Ver perfil

Una de las tareas que debemos asumir las bibliotecas universitarias y los bibliotecarios es la de servir de apoyo a nuestros investigadores, trabajar en el asesoramiento sobre herramientas relativas a las competencias llamadas transversales, como pueden ser todos los temas relativos a la visibilidad de la investigación, el reconocimiento de su identidad o la reputación digital. Con ello también contribuiremos a la visibilidad de nuestras instituciones y a la valoración positiva de la biblioteca, y del profesional de la información.

¿Qué es Google Scholar Citations? Google Scholar Citations permite a los autores configurar una página de perfil en la que se enumeran sus publicaciones y sus métricas de citas. Las métricas de citas se actualizan automáticamente y puedes elegir entre actualizar tu lista de publicaciones de forma automática o actualizarlas tú mismo.

¿Por qué crear un perfil en Google Schoolar? Se calcula que un 75% de los investigadores inician su investigación desde Google. La clave es que nuestros trabajos los indexe Google.

Además:

– Es muy fácil de crear y mantener

– Aumenta la visibilidad del invistigador y fortalece su reputación e identidad digital

– Facilita compilar las citas recibidas

– Conocer cuales de nuestras áreas de investigación tienen más impacto

TUTORIAL

Como crear perfil de investigador en Google Scholar Citations from Julio Alonso Arévalo

Otra recomendación muy recomendable…

Cómo utilizar google scholar para mejorar la visibilidad SlideShare by Torres Salinas, Education at Universidad de Navarra

 

 

Visibilidad de la información científica, identidad digital y acreditación académica

Emacs!

Visibilidad de la información científica, identidad digital y acreditación académica

Descargar presentación

Objetivos • Medir la calidad • Donde publicar y como hacerlo • Como firmar • Como gestionar y promocionar mi investigación ( Inestigación 2.0)¿Cómo se mide la calidad de la investigación?Medir la Calidad Las Agencias de Evaluación y entidades financieras necesitan una medida objetiva de la calidad de las publicaciones. Consecuentemente existe una demanda de medidas de este tipoMedir la Calidad • Colectiva: Impacto de la revista. En que revistas publicar ? Internacional: ISI JCR, Scopus SJCR, EriH, Latindex. ? Nacional: RESH, DICE, IN?RECS • Individual: Número de citas: ISI WoK, Scopus, Google Scoolar CitationsDos Mediciones 1. Colectiva. Índices de Impacto 2. Individual. Citas recibidasCálculo El factor de impacto de una revista es la media de veces que en un año determinado fueron citados los artículos publicados por esta revista en los dos años anteriores.Argumentos a favor A favor… Cobertura internacional amplia con más de 12400 publicaciones de 60 países. Los resultados son publicados y disponibles (FEYCIT) Es fácil de usar y entender.Argumentos en contra…… •El número de las citas no mide realmente la calidad de la publicación, pero sí la cantidad de publicaciones •El periodo de cálculo base para citas es muy corto • La naturaleza de los resultados en distintas áreas de investigación (Ciencias vs. Sociales?Humanidades) ••Sesgo Lingüístico??Geográfico revistas principalmente en inglés de países desarrolladosEl artículo + citado de la historia El artículo de Oliver H. Lowry, Nira J. Rosenbrough, A. Lewis Farr, Rose J. Randall, “Protein Measurement with the Folin Phenol Reagent ,”” The Journal of Biological Chemistry (JBC) 193: 265? 275, 1951, está considerado el artículo más citado de toda la historia de la ciencia (según el ISIWeb of Science 1945?2010). Oliver H. Lowry 293.328 293 328 citas Albert Einstein, ha sido citado a día de hoy 6647 veces

Variaciones en los tipos de citas a través de disciplinas, tipos de documentos, trayectorias y perfiles profesionales

[]

Basado en:

Admin, B. (2014). What shapes the citing of academic publications. Impact of Social Sciences.

Ver Original

Resumen

  • Las tasas de citación se utilizan como base para el seguimiento del impacto académico. La forma y tasas de citación varían ampliamente de unas a otras disciplinas académicas.
  • Existen diferencias sustanciales en la tasa general de cita entre diferentes disciplinas, las disciplinas con más capacidad de cita (incluyendo la auto-cita) son las ciencias, después las ciencias sociales y por último las humanidades
  • El tipo de documento publicado afecta las tasas de citas, por ejemplo, un libro tarda más tiempo en ser citado, pero será citado durante un periodo de tiempo más largo.
  • EL momento profesional y la trayectoria académica de los investigadores es otro factor importante en las tasas de citación.

Entender los patrones de citas y cómo podrían mejorarse, no es una cosa fácil, pues exige una buena dosis de conocimiento del contexto en que se desenvuelve cada área de conocimiento. Las citas que un investigador puede obtener dependen de varios factores clave – especialmente estará en función del país, la edad, trayectoria y otros factores como las características propias de cada disciplina y subdisciplina.

Que una obra sea citada no quiere decir que haya sido citada por su calidad. Existe un mito sobre las citas negativas, y se dice que cualquiera puede incluir a propósito un error importante en una investigación con el fin de conseguir citas. Esto que en principio puede ser posible, no lo es en la práctica, ya que se hay estudios que ponen de manifiesto que los investigadores no suelen citar los trabajos con errores, pues en un análisis que incluía 10.400 artículos científicos, sólo se encontró que los comentarios negativos que acompañan de forma explícita a una cita solo fueron 10. Por lo general si se piensa que un documento es malo, simplemente no se cita.

Es difícil para un investigador individual entender y emitir juicios razonables acerca de lo que podría o debería hacer para tener mayor impacto. Cuando a algunos investigadores se les pide evaluar a sus colegas – para mejora profesional, sistemas de evaluación o de promoción, asesoramiento y tareas de administración departamental – deberían, tener especial cuidado en apreciar las complejidades de cada disciplina en particular. No hay un arquetipo único realista de cómo se debe desarrollar una carrera académica, sino más bien una serie de diferentes trayectorias, ya que las características y necesidades de unas y otras disciplinas, departamentos y laboratorios de investigación incluyen diferentes tipos de contribuciones y características propias.

Por una parte hay que considerar las diferentes velocidades con que se citan las publicaciones  de unas y otras disciplinas -indice de latencia-  que a groso modo se alinearían en este orden: ciencia, tecnología, ingeniería y matemáticas, ciencias sociales y humanidades. El artículo promedio en Ciencias Sociales y Humanidades se cita menos de una vez al año. (Anne-Wil Harzing, 2010)

En segundo lugar también existe una influencia global de la edad y la experiencia en la formación de la acumulación de citas a lo largo de la vida de los investigadores – que incluye aspectos tales como su experiencia o su éxito en conseguir una investigación universitaria intensiva -. ya que esta trayectoria tiene su incidencia sobre las propias publicaciones, perfiles, características y tasas de citación.

1.1 Las variaciones en los tipos de citas a través de disciplinas. 

Durante muchos años (de 2004 a 2009) la principal revista especializada del Reino Unido para el sector universitario, Times Higher Education o LAS, publicaba tablas de clasificación de universidades del mundo que pretendían mostrar su calidad académica derivada únicamente de los recuentos brutos de citas. De hecho, la clasificación LA mostraba principalmente lo importantes que eran las facultades de Medicina y Ciencias Físicas en relación con otras disciplinas de sus universiades, de manera que universidades con facultades de Medicina y Físicas grandes quedaban muy por encima de cualquier facultad de Ciencias Sociales y Humanidades. Sin embargo, el poder de centrarse en lo que es fácil o inmediatamente cuantificable fue tal que tuvieron que pasar muchos años para que se admitiera que aquel enfoque era deficiente.

La figura 1.1 muestra las raíces de este problema utilizando el  criterio  que  mide  el número total de citas de artículos de revistas en un año determinado, dividida por el número de artículos de revistas producidas en el mismo año, -según consta en ISI Web of Science (ISI), la base de datos en línea de citas publicada por Thomson Reuters-. La tasa de citas en Medicina es mayor que la tasa en Ciencias Sociales en un factor de 8 a 3, y mayor que la de el Derecho y Humanidades en un factor de 8 a 1. De manera que los artículos de Ciencias Físicas se citan dos veces más que los de Ciencias Sociales, y cuatro veces más que los de Derecho y Humanidades.

[]

Figura 1.1: Las diferencias en las tasas de citación promedio entre grandes grupos de disciplinas

Hay muchas razones para seguir este patrón. En Medicina la mayoría de los artículos publicados tienen un límite de 3.000 palabras, mientras que la norma en Ciencias Sociales es de alrededor de 6.000 a 9.000 palabras de extensión por artículo. Las Ciencias Médicas también han desarrollado una cultura fuerte y rigurosa de “revisión sistemática”, que requiere que todos los estudios relevantes se citen al principio. Este enfoque muy estructurado y bien definido para la revisión de la literatura se refleja en las Ciencias Físicas. Pero la cultura de la revisión sistemática o la referencia completa está lejos de haberse establecido en la mayoría de las disciplinas de las Ciencias Sociales. Y más aún en las Humanidades, donde la revisión sistemática, está prácticamente ausente.

Las diferencias en los patrones de citación entre las Ciencias Médicas/Físicas y las Ciencias Sociales y Humanidades también se pueden explicar por el desarrollo de una cultura de “normalización científica”, muy consolidada en las primeras; mientras que en las Ciencias Sociales todavía hay corrientes teóricas fundamentalmente opuestas en la mayor parte de las disciplinas componentes. De manera que en las Ciencias Sociales las citaciones pueden convertirse en una forma de tomar partido sobre lo que constituye un argumento válido o no. Todas estas características están aún más fuertemente marcadas en las humanidades, donde la referencia es a menudo una cuestión de elección personal.

Cuando se discuten patrones de citación vale la pena mencionar brevemente varios hechos técnicos sobre la cobertura de ISI Web of Knowledge.

1. En primer lugar, el número de artículos de revistas es mucho más amplio para las Ciencias Médicas y Físicas, es decir aquellas áreas en las que desarrolló la base de datos desde el principio de su existencia.

2. En segundo lugar, ISI no incluye libros, que son un elemento importante de la comunicación profesional en Ciencias Sociales y Humanidades, -aunque sí incluye reseñas de libros- y por lo tanto tiende a bajar el promedio de citas de estas disciplinas.

3. En tercer lugar, sabemos que las tasas de auto-citas (donde los académicos citan su propio trabajo) varían dramáticamente en todas las disciplinas – por ejemplo, la auto-cita es dos veces más alta en Ingeniería y en Ciencias Políticas. Por lo que hay buenas razones para argumentar sin embargo, que las tasas de citación deben evaluarse dejando fuera auto-citas. También hay algún trabajo preliminar de investigación que sugiere que los autores que se auto-citan consiguen ser más citados por otras personas que aquellos otros que son más dados a no hacerlo.

Por lo tanto las comparaciones de tasas de citación o calificaciones obtenidas por diferentes investigadores deben hacerse en función de los principales grupos de disciplinas. La naturaleza de una materia, las formas en que genera diferentes tipos de publicaciones, cómo son las prácticas relacionadas con la citación y como han desarrollado con el tiempo las revisiones bibliográficas , son demasiado distintas en los diferentes grupos de asignaturas para hacer comparaciones intergrupales.

[]

Figura 1.2: Las diferencias en las tasas de citación promedio entre grandes grupos de disciplinas.

 

Por último es importante destacar que la Bibliometría y las herramientas de citación se han desarrollado inicialmente en Estados Unidos en particular a tavés de ISI Web of knowledge, por lo que sigue teniendo una orientación fuerte o sesgo, hacia publicaciones escritas en inglés. Todos los sistemas de seguimiento de citas han comenzado a diversificarse en la última década, pero el progreso ha sido bastante lento. Por lo que aquellos autores que publican exclusivamente en inglés tendrán más capacidad de recibir citas, que aquellos otros que publican tanto en Inglés como en otras lenguas, y los autores que publican exclusivamente en un idioma que no es Inglés tendrán una representación mucho más baja.

1.2 carreras académicas y la acumulación de citas. 

Los patrones de citas están estrechamente vinculados al desarrollo profesional académico, es decir, tiene que ver donde se encuentra el investigador en su trayectoria profesional y la ruta que están siguiendo. Este proceso tarda en desarrollarse. El número de citaciones está por lo tanto muy en sintonía con la edad, el sexo, el tamaño del país, y otras variables demográficas.

Los investigadores modernos se sienten a menudo bajo presiones imposibles de realizar de manera brillante en muchos ámbitos diferentes de actividades, tales como “descubrimiento” vanguardia investigación, integración académica del conocimiento, enseñanza, y funciones de gestión. Estas expectativas combinados pueden no ser reunidas en una persona, en un sólo tiempo o incluso durante  su carrera profesional; y sin embargo, a menudo se encuentran lejos de la imagen de lo que sería el “tipo ideal”.de académico Esta imagen es poco realista porque no toma suficientemente en cuenta la especialización contemporánea de diferentes trayectorias profesionales.

La investigación moderna es cada vez menos una ocupación solitaria de un erudito. Ahora se trabaja en equipos de investigación, hecho reforzado por la necesidad de una alta especialización. Por último, las diferentes disciplinas varían mucho en cómo están configurados los roles académicos.

Para la minoría de investigadores ‘estrella’, las citas por año tienden a aumentar rápidamente en la parte final de su carrera por varias razones. En principio sus obras más maduras pueden alcanzar un amplio reconocimiento, a menudo porque tienen fuertes efectos integradores dentro de una disciplina; o su trabajo anterior puede adquirir la condición de ‘atemporal’ o ‘estándar de referencia’ y así seguirá siendo citado a pesar de ser publicaciones antiguas (garantizando también más atención a sus trabajos actuales).

[]

Figura 1.3: citas hipotéticas perfiles a través del tiempo para tres tipos principales de publicación

Estos factores demográficos clave interactúan con el patrón característico de citas, que se muestra en la Figura 1.3. Por lo general hay un retraso inicial en el reconocimiento o la asimilación de los artículos publicados de alrededor de un año más o menos; y este periodo es más largo para un libro, que generalmente es de uno a cuatro años después de la publicación en el caso de las Ciencias Físicas y Sociales, y más en las Humanidades.

En las diferentes disciplinas varían los patrones de citación en función de los tipos de documentos como documentos de trabajo y artículos de revistas. En Ciencia Política, por ejemplo, los documentos de trabajo tienen poca o ninguna influencia, y sin embargo la publicación de un artículo de revista es el estímulo clave. Sin embargo, en Economía los documentos de trabajo son muy importantes. Por lo tanto los documentos de trabajo en esta área permiten tener impactos rápidamente; pero posteriormente, dejan de ser citados cuando se publica la versión completamente revisada como artículo de revista a los 2 o 3 años después.

1.3 Las diferentes trayectorias profesionales y perfiles publicaciones. 

Como antes se mencionaba la trayectoria profesional tiene una importante influencia en los perfiles de publicación y citas. La trayectoria profesional de un investigador abarca estas seis etapas:

1. Desarrollo de habilidades de investigación y competencias que son en muchos sentidos, es el primer aspecto a desarrollada en el perfil de cualquier investigador, ya que todo el mundo accede a la profesión, y posteriormente debe completar un doctorado. Esta es un área donde los investigadores pueden seguir potenciando sus competencias a lo largo de sus carreras.

2. Capacidad de autoría es normalmente la segunda dimensión que los investigadores tiene que desarrollar desde el principio, por lo general un poco a la zaga de las habilidades de investigación expuestas anteriormente. Cualquiera que sea el patrón a seguir, durante los últimos años de su trabajo doctoral debe comenzar a desarrollar las formas de la escritura profesional. La tesis doctoral a menudo puede ser la pieza más larga de escritura que realiza un primer investigador en el inicio de su carrera académica.

3. Capacidades de enseñanza son la tercera dimensión que los aspirantes a académicos empiezan a desarrollar en los últimos años de su doctorado.

4. Capacidades de gestión de los académicos e investigadores en general son adquiridas informalmente como desarrollo de su carrera cuando asumen puestos de responsabilidad.

5. Trabajo en equipo (Networking) es una habilidad académica que se desarrolla con el tiempo y está claramente vinculada a la investigación en varias dimensiones. En su forma más básica, la capacidad de trabajar en equipos de dos, tres o algunos compañeros de los investigadores y los coautores que tendrá una influencia importante en la calidad y el tipo de investigación que cualquier académico puede emprender.

6. Celebridad. Cuando el investigador es requerido para formar parte de comités científicos, se trata de un aspecto que se desarrolla cuando ya tiene una carrera ya bien consolidada y un prestigio profesional.

Plum Analythics : portal de métricas de investigación de Ebsco

Plum (Cereza) Analytics es el primer proveedor de Altmetrics que va más allá de las métricas de artículos y realiza un seguimiento de todos los productos de la investigación en cualquier forma, proporcionando una poderosa herramienta que aumenta la capacidad de la métrica tradicional.

Plum Analytics es el proveedor de PlumX ™, un producto que ofrece una imagen más completa de la investigación y responde a preguntas sobre el impacto de investigación para cualquier persona, incluidos los investigadores, bibliotecarios, administradores y financiadores. PlumX  reúne a las métricas a través de cinco categorías de uso,a través de la captura de la citas en los medios sociales.

Los documentos incluyen: artículos, entradas del blog, capítulos de libros, libros, casos, ensayos  clínicos,comunicaciones a congresos, conjuntos de datos, cifras, subvenciones, entrevistas, cartas, medios de comunicación, patentes, posters, presentaciones, código fuente, tesis / disertaciones, vídeos, páginas web.

PlumX ofrece una nueva manera de ver la influencia que tiene los investigadores, grupos e instituciones. Un carrusel de datos en la parte superior de la página permite acceder fácilmente a los tipos de producción y a los mejores indicadores recogidos en 5 categorías: citaciones, uso, menciona, captura, y medios sociales.

[]

PlumX ofrece visualizaciones para ver el impacto relativo de la producción de un investigador. También se puede ver el impacto de un departamento, laboratorio, revista, asunto o cualquier agrupación que tenga sentido para una organización. Al hacer clic en el botón “Ver Sunburst” se visualizala tabla de rayos de sol que permite ver por “Tipo de documento” e “Impacto”.

[]

De este modo proporcionando un circuito de retroalimentación para que los investigadores puedan ver qué plataformas son más apropiadas en cuanto al impacto para difundir la investigación futura.

[]

 

 

También es posible añadir widgets de PlumX a su repositorio institucional, perfiles de investigadores,  sitios web del departamento, o blogs, etc.

Declaración de San Francisco sobre Evaluación de la Investigación (DORA)

[]

La Declaración de San Francisco sobre Evaluación de la Investigación (DORA)

Descargar

La Declaración de San Francisco sobre Evaluación de la Investigación (DORA), impulsada por la Sociedad Americana de Biología Celular (BCSV), junto con un grupo de directores y editores de revistas científicas, reconoce la necesidad de mejorar la forma en que se evalúan los resultados de la investigación científica . El grupo se reunió en diciembre de 2012 durante la reunión anual  BCSV en San Francisco e hizo circular un proyecto de declaración entre los diversos grupos de interés.Se trata de una iniciativa mundial que abarca todas las disciplinas académicas. Animamos a las personas y organizaciones que están preocupados por la evaluación adecuada de la investigación científica a que firmen DORA.

Poniendo ciencia en la evaluación de la investigación. 

Hay una necesidad apremiante de mejorar la forma en que los resultados de la investigación científica son evaluados por las agencias de financiación, instituciones académicas y otros. Para solucionar este problema, un grupo de directores y de editores de revistas académicas se reunió durante la Reunión Anual de la Sociedad Americana de Biología Celular (BCSV) en San Francisco, CA, el 16 de diciembre de 2012. El grupo desarrolló una serie de recomendaciones, conocidas como la Declaración de San Francisco de Evaluación de la Investigación. Invitamos a los interesados en todas las disciplinas científicas que indiquen su apoyo al añadir  sus nombres a la presente Declaración.

Los resultados de la investigación científica son muchos y variados, que incluyen: artículos de investigación que reportan nuevos conocimientos, datos, reactivos y software, propiedad intelectual, así como jóvenes científicos altamente capacitados. Los organismos de financiación, las instituciones que emplean los científicos y los propios científicos, necesitan, y es necesario, evaluar la calidad e impacto de la producción científica. Por tanto, es imperativo que la producción científica se mida con precisión y se evalúe con prudencia. El índice de impacto de las revistas se utiliza con frecuencia como parámetro primario con el que comparar la producción científica de las personas y las instituciones. El índice de impacto de revistas, según los cálculos de Thomson Reuters, fue creado originalmente como una herramienta para ayudar a los bibliotecarios a identificar revistas que comprar, no como una medida de la calidad científica de la investigación en un artículo. Con esto en mente, es importante entender que el índice de impacto tiene una serie de deficiencias bien documentadas como herramienta para la evaluación de la investigación. Estas limitaciones incluyen:

a) la distribución de citas en revistas está muy sesgada [1-3],
b) las propiedades del índice de impacto son específicas del campo científico considerado: es una combinación de varios tipos de artículos, muy diversos, incluyendo artículos de investigación primaria y opiniones [1, 4];
c) Los índice de impacto se pueden manipular (o “trastear”) por la política editorial [5],y d) los datos utilizados para el cálculo de los índices de impacto de las revistas no son ni transparentes ni están abiertamente a disposición del público [4 , 6, 7].

A continuación se hace una serie de recomendaciones para mejorar la forma en que se evalúa la calidad de los resultados de la investigación. Los resultados que no sean artículos de investigación crecerán en importancia en la evaluación de la eficacia de la investigación en el futuro, pero el trabajo de investigación revisado por pares continuará como un resultado central para informar sobre la evaluación de la investigación. Por lo tanto, nuestras recomendaciones se centran principalmente en las prácticas relativas a los artículos de investigación publicados en revistas revisadas por pares, pero pueden y deben ampliarse mediante el reconocimiento de productos adicionales, tales como bases de datos, como resultados de la investigación importantes. Estas recomendaciones están dirigidas a los organismos de financiación, las instituciones académicas, las revistas, las organizaciones que suministran métricas, y a los investigadores individuales.

Una serie de temas recorren estas recomendaciones: 

• la necesidad de eliminar el uso de métricas basadas en revistas, tales como índice de impacto de revistas, en la financiación, en los nombramientos, y en las consideraciones de promoción;

• la necesidad de evaluar la investigación por sus propios méritos y no en base a la revista en la que se publica la investigación, y

• la necesidad de aprovechar las oportunidades que ofrece la publicación en línea (como relajar los límites innecesarios en el número de palabras, figuras y referencias en artículos, y la exploración de nuevos indicadores de la importancia y el impacto).

Reconocemos que muchas agencias de financiación, instituciones, editores e investigadores ya están alentando prácticas mejoradas en la evaluación de la investigación. Estas medidas están empezando a aumentar el impulso hacia enfoques más complejos y significativos para la evaluación de investigación que ahora se puede realizar y que son adoptadas por todos los principales grupos involucrados.

Los firmantes de la Declaración de San Francisco en la evaluación de la investigación apoyan la adopción de las siguientes prácticas en la evaluación de la investigación.

Recomendación General. 

1. No utilice métricas basadas en revistas, tales como índices de impacto de revistas, como una medida sustitutiva de la calidad de los artículos de investigación individuales, con el fin de evaluar las contribuciones de un científico, o en la contratación, promoción, o en las decisiones de financiación.

Para los organismos de financiación. 

2. Sea explícito acerca de los criterios utilizados en la evaluación de la productividad científica de los solicitantes de subvenciones y resaltar claramente, sobre todo para los investigadores en fase inicial, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.

3. A efectos de la evaluación de la investigación, considerare el valor y el impacto de los resultados de la investigación (incluidos los conjuntos de datos y software), además de las publicaciones de investigación, y considerare una amplia gama de medidas de impacto que incluya indicadores cualitativos del impacto de la investigación, como la influencia sobre la política y la práctica.

Para las instituciones. 

4. Sea explícito acerca de los criterios utilizados para llegar a la contratación, la tenencia y las decisiones de promoción, destacando con claridad, sobre todo para los investigadores en fase inicial, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.

5. A efectos de la evaluación de la investigación, considerare el valor y el impacto de los resultados de la investigación (incluidos los conjuntos de datos y software), además de las publicaciones de investigación, y considerare una amplia gama de medidas de impacto que incluya indicadores cualitativos del impacto de la investigación, tales como la influencia sobre la política y la práctica.

Para editoriales. 

6. Reduzca en gran medida el énfasis en la revista del índice de impacto como una herramienta de promoción, idealmente dejando de promover el índice de impacto o mediante la presentación de la métrica en el contexto de una variedad de métricas basadas en revistas (por ejemplo, índice de impacto de 5 años, Eigenfactores [8] , SCImago [9], índice h, editorial y tiempos de publicación, etc) que proporcionan una visión más rica del rendimiento de la revista.

7. Ponga a disposición una serie de indicadores a nivel de artículo para fomentar un cambio hacia la evaluación basada en el contenido científico del artículo en lugar de métricas sobre la revista en que fue publicado.

8. Fomente prácticas de autoría responsables y la provisión de información sobre las contribuciones específicas de cada autor.

9. Si la revista es de libre acceso o suscripción, elimine todas las limitaciones de reutilización en las listas de referencias de artículos de investigación, que estarán disponibles bajo la licencia “Creative Commons Public Domain Dedication” [10].

10. Elimine o reduzca las restricciones en el número de referencias en artículos de investigación y, en su caso, dirija la citación de la literatura primaria en favor de las revisiones con el fin de dar crédito al grupo(s) que registró por primera vez un hallazgo.

Para las organizaciones que proveen métricas. 

11. Sea abierto y transparente, proporcionando datos y métodos utilizados para el cálculo de todos los indicadores.

12. Proporcione los datos bajo una licencia que permita la reutilización sin restricciones, y facilite el acceso a los datos de cálculo, siempre que sea posible.

13. Tenga claro que la manipulación inadecuada de los indicadores no será tolerada; sea explícito acerca de lo que constituye la manipulación inadecuada y qué medidas se tomarán para combatir esto.

14. Cuando se utilizan, agregan o comparan indicadores tenga en cuenta las diferencias existentes entre los distintos tipos de artículos (por ejemplo, revisiones frente a artículos de investigación), y en las diferentes áreas científicas.

Para los investigadores. 

15. Cuando participe en los comités de toma de decisiones sobre la financiación, la contratación, la tenencia, o la promoción, realice evaluaciones basadas en el contenido científico en lugar de en las métricas de publicación.

16. Siempre que sea necesario, cite la literatura primaria en que las observaciones fueron por primera vez publicadas con el fin de dar el crédito a quien merece ese crédito.

17. Use una variedad de métricas de artículos e indicadores sobre las declaraciones personales o de apoyo, como evidencia del impacto de los artículos publicados individuales y otros productos de la investigación [11].

18. Cambie las prácticas de evaluación de la investigación que se basan inadecuadamente en los índices de impacto y promueva y enseñe las mejores prácticas que se centran en el valor y la influencia de los resultados específicos de la investigación.

Referencias

1. Adler, R., Ewing, J., and Taylor, P. (2008) Citation statistics. A report from the International Mathematical Union. www.mathunion.org/publications/report/citationstatistics0
2. Seglen, P.O. (1997) Why the impact factor of journals should not be used for evaluating research. BMJ 314, 498–502.
3. Editorial (2005). Not so deep impact. Nature 435, 1003–1004.
4. Vanclay, J.K. (2012) Impact Factor: Outdated artefact or stepping-stone to journal certification. Scientometrics 92, 211–238.
5. The PLoS Medicine Editors (2006). The impact factor game. PLoS Med 3(6): e291 doi:10.1371/journal.pmed.0030291.
6. Rossner, M., Van Epps, H., Hill, E. (2007). Show me the data. J. Cell Biol. 179, 1091–1092.
7. Rossner M., Van Epps H., and Hill E. (2008). Irreproducible results: A response to Thomson Scientific. J. Cell Biol. 180, 254–255.
8. http://www.eigenfactor.org/
9. http://www.scimagojr.com/
10. http://opencitations.wordpress.com/2013/01/03/open-letter-to-publishers
11. http://altmetrics.org/tools/

El potencial de cita de los artículos OA para acelerar la comunicación académica

[]

Aman, V. (2013). [e-Book]  The potential of preprints to accelerate scholarly communication: A bibliometric analysis based on selected journals. Berlin, Humboldt University of Berlin, 2014.

Texto completo

En este trabajo se cuantifica en qué medida los preprints depositados con anterioridad en arXiv aceleran la comunicación académica para las áreas temáticas: Física de Alta Energía (HEP), Matemáticas, Astrofísica, Biología Cuantitativa e Información y Documentación (ByD). Los datos de las publicaciones y su frecuencia de cita fueron extaídos de Scopus y se compararon con lospreprints correspondientes en arXiv. Además, se utilizaó la base de datos INSPIRE HEP para recuperar datos de citas de trabajos relacionados con Física de Alta Energía (HEP). El análisis bibliométrico examinó el crecimiento del número de citas de los artículos depreprints depositados en arXiv con anterioridad respecto a la publicación tardía, que se define como la distancia cronológica entre el depósito de una preprint y su publicación en una revista formal. Asimismo, se analiza el retraso de la citación, que describe el tiempo que lleva obtener la primera cita del preprint, y los artículos publicados en una revista convencional respectivamente.

Se compara el número total de citas entre los artículos que tienen una versión previamente depositada y los que no. Se muestran los resultados en todos los campos estudiados, pero a nivel general existe una cierta ventaja de cita significativa en términos de tasas de velocidad y de citas totales por artículos en aquellos artículos que tenían una versión preprint anterior en arXiv.

Análisis de la eficacia de los documentos en Acceso Abierto en Ciencias Políticas

[]

Atchison, A. and J. Bull . [e-Book]  Will Open Access Get Me Cited? An Analysis of the Efficacy of Open Access Publishing in Political Science. Chapel Drive, Valparaiso, USA, Valparaiso University, 2015.

Texto completo

La revolución digital ha hecho más fácil para los politólogos compartir la investigación de alta calidad en línea. Sin embargo, muchos de estos artículos se almacenan en bases de datos propietarias que algunas instituciones no pueden permitirse. Artículos de alta calidad, revisados por pares, artículos de revistas de primer nivel que se han depositado en Acceso Abierto deberían teóricamente ser más fácilmente accesibles y ser más citados que los artículos de calidad similar que sólo están disponibles para los clientes de pago. La investigación sobre la eficacia de Open Access (OA) se han centrado hasta ahora principalmente en las ciencias naturales, y los resultados han sido desiguales. Debido a que la OA no ha sido tan ampliamente adoptado en las ciencias sociales, disciplinas como la Ciencia Política han recibido muy poca atención en la investigación sobre su impacto en acceso abierto. En este trabajo, se trata de determinar la eficacia del OA en Ciencias Políticas. La hipótesis principal es que los artículos en OA artículos serán citados que los artículos que tienen barreras de acceso (TA), es decir, que sólo están disponible para clientes de pago. Por ello, se pone a prueba mediante el análisis de las tasas medias de citas de artículos de OA en ocho de las mejores revistas de Ciencias Políticas. La conclusión del estudio a tenor de los resultados es que las publicaciones en OA obtienen una clara ventaja de cita en el área de conocimiento de las Ciencias Políticas.

La evaluación del impacto de Investigación de Excelencia 2014

[]

Manville, C., S. Guthrie, et al. [e-Book]  Assessing impact submissions for REF2014: An evaluation, RAND Europe, 2015.

Texto completo

El Marco de Investigación par la Excelencia (REF) es un nuevo sistema para evaluar la calidad de la investigación de las instituciones de educación superior en el Reino Unido (IES).  Por primera vez, parte de la evaluación incluyó el impacto más amplio de la investigación. RAND Europe fue el encargado de analizar el proceso de evaluación del impacto de las presentaciones REF, y para explorar las fortalezas y debilidades del proceso de evaluación en la obtención de resultados fiables, robustos y justos, e identificar los problemas imprevistos que aparecieran durante el proceso de evaluación y delinear las  implicaciones para el proceso de evaluación del impacto en los ejercicios futuros.

Este informe ofrece un resumen de los hallazgos principales, complementados por un análisis detallado del proceso usando para las siguientes metodologías: grupos de discusión con los miembrosl, los usuarios y evaluadores del impacto. Y es un complemento de un informe anterior de la investigación que llevó a cabo RAND Europe para el Reino Unido para la evaluación del proceso de financiación de los consejos de educación superior.

Acreditación ANECA ¿Qué tiene que saber un investigador para mejorar los resultados de su investigación?

Emacs!

Ver Slide SHARE

¿Qué tiene que saber un investigador para mejorar los resultados de su investigación? por Julio Alonso Arévalo

Oir PODCAST de PLANETA BIBLIOTECA

¿Qué tiene que saber un investigador sobre acreditación y calidad científica?

Las nuevas posibilidades de comunicación también ofrecen nuevas oportunidades para la formación, el análisis y evaluación de la investigación. Los científicos y los investigadores están utilizando de forma rutinaria las aplicaciones basadas en web en sus investigaciones. En prácticamente todos los ámbitos de investigación, las herramientas digitales se han convertido en indispensables, la aparición de nuevos paradigmas como el acceso abierto, métricas alternativas y redes sociales son un ejemplo importante de cómo estos cambios han afectado a la forma en que los estudiosos piensan en el futuro de las publicaciones académicas. Estos acontecimientos han creado nuevas posibilidades y desafíos en la evaluación de la calidad de la investigación, también a nivel de investigadores individuales y desarrollos de carrera. Es en este nivel donde la biblioteca juega un papel indispensable en la formación de competencias, destrezas y habilidades informativas que repercutirá en la valoración social del profesional, su satisfacción laboral y en última instancia en la calidad de la propia institución. Se destacan los aspectos más sobresalientes en los nuevos paradigmas de comunicación y difusión científica y se recomiendan las acciones de formación más adecuadas al respecto. Se dan 5 recomendaciones básicas para que un investigador mejore el impacto de sus trabajos.

s