Archivo de la etiqueta: Impacto

Las revistas de acceso abierto tienen una clara ventaja de citación sobre las revistas de suscripción

average-citations-header-image

Curno, Mirjam ;  Oeben, Stephanie «Scientific Excellence at Scale: Open Access journals have a clear citation advantage over subscription journals» Frontiers, 2018

Texto completo

Frontiers es el cuarto editor más citado entre los 20 mayores editores, clasificados por el promedio de citas en un período de tres años (2015-2017). El mismo análisis también revela una ventaja de las revistas de acceso abierto sobre las revistas de suscripción en los últimos tres años.

 

En 2017, el 16% de los artículos revisados por pares de todo el mundo se publicaron en revistas de acceso totalmente abierto, según SCImago (2018). Después de más de dos décadas de la revolución del Acceso Abierto, esto está muy lejos del aspirado 100% . Una de las muchas razones por las que la transición al acceso abierto resultó ser tan difícil es el debate sobre si el acceso abierto puede producir excelencia científica.

En este post de blog se realiza un análisis de revistas contrastando revistas de acceso abierto y revistas de suscripción basadas en datos de SCImago (2018, los datos de SCImago se basan en la base de datos Scopus de Elsevier). El conjunto de datos completo está disponible en Figshare. Estos datos fueron presentados en el EuroScience Open Forum 2018, aquí dispones del powerpoint y la videoconferencia.

En 2017, cuatro de los 20 mayores editores son editores de acceso abierto (Figura 1), 16 son editores de suscripción tradicionales con una gama de revistas de suscripción, híbridas y de acceso abierto.

total-documents-2017-new23

 Figura 1. Los 20 primeros editores por volumen en 2017 en SCImago (2018), En rojo son editores de Acceso Abierto completo.

 

Si se observa la media de citas en un período de tres años (2015-2017) entre los 20 mayores editores, el rendimiento de los editores de acceso totalmente abierto es notable (Figura 2).

top-20

Figura 2. Promedio de citas por artículo, de los artículos publicados en 2015, 2016 y 2017 para los 20 principales editores en 2017 (SCImago, 2018). En rojo están todos los editores de acceso abierto

 

Frontiers ocupa el cuarto lugar entre los 20 editores más importantes por el promedio de citas por artículo publicado entre 2015 y 2017. La tasa de citación media de Frontiers es de 3,65 por artículo y muy por encima de la media de 2,7 para las revistas de suscripción y 2,9 para las de acceso abierto. Entre los editores clasificados, sólo las sociedades científicas especializadas en un campo único y muy citado, como la química o la física, ocupan un lugar más destacado. Entre los editores multidisciplinarios, Frontiers tiene la tasa de citación media más alta.

Otros editores de acceso totalmente abierto también se sitúan por encima de la media en las tasas de citación: PLOS ocupa el sexto lugar con una tasa de citación promedio de 3.25 y MDPI el octavo con una tasa de citación promedio de 3.10 (Figura 2).

En general, a lo largo de los últimos tres años, las revistas de acceso abierto reciben en promedio un 7% más de citas que las revistas de suscripción (Figura 3). Curiosamente, las revistas de acceso abierto publicadas por editores de suscripción tradicionales están logrando en general un mayor impacto dentro del mismo editor.

top-20-publishers-hindawi-amended1

Figura 3. Promedio de citas por artículo en un período de tres años (2015-17) para los 20 principales editores en 2017 en SCImago (2018),

Si desglosamos las revistas de acceso abierto y de suscripción de esos 20 editores, las revistas de acceso abierto tienen una ventaja en las citas, con una media de 2,9 citas por artículo para las revistas de acceso abierto frente a 2,7 citas por artículo para las revistas de suscripción (incluidos los híbridos, Figura 3).

Mientras que 10 de las 16 editoriales tradicionales muestran una clara ventaja de citas para sus revistas de acceso abierto, hay algunas variaciones, que probablemente reflejen estrategias diferentes con los títulos, así como la posición de los editores en términos del contenido que atraen.

Estos resultados están en línea con un reciente Libro Blanco publicado por Springer Nature y Digital Science, que demostró una clara ventaja de los artículos de acceso abierto sobre los artículos de pago en revistas de suscripción híbridas. Los artículos publicados en el formato de acceso abierto fueron 1,6 veces más citados que los artículos de pago en las mismas revistas.

Los hallazgos también están en línea con la ventaja de las citas de las revistas en Frontiers Open Access journals in the 2017 Journal Citation Reports and 2017 CiteSc

Muchos han apreciado los beneficios de la Ciencia Abierta para la sociedad; el descubrimiento, la innovación, el crecimiento económico y el acceso público al conocimiento científico. Estos datos ahora muestran claramente que las revistas de acceso abierto superan a las revistas de suscripción tradicionales en las métricas de citas y ofrecen un mejor impacto para los autores.

 

 

 

La visibilidad de una revista académica electrónica

107la_visibilidad_de_una_revista_1024x1024

López-Ornelas, Maricela. La visibilidad de una revista académica electrónica. Una perspectiva comunicacional. Mexicali: Universidad Autónoma de Baja California., 2014

Texto completo

La visibilidad de una revista académica electrónica expone, bajo una perspectiva comunicacional, la visibilidad de la Revista Electrónica de Investigación Educativa (Redie) a través del análisis de sus contenidos y procesos de comunicación. En este sentido, estudia el consumo de la información que produce la revista mediante sus procedimientos de introspección. La investigación se apoya en una metodología de corte cuantitativo que, a la vez, se auxilia con el análisis de indicadores bibliométricos (institución, grado académico, nacionalidad de los autores, género, nivel de autoría, etcétera) y cibermétricos (países desde donde se consulta la revista, el origen de la conexión, las palabras clave empleadas en la búsqueda, el número de descargas de artículos en versión de documento portátil [pdf, por sus siglas en inglés], y el total de visitantes únicos por mes y año) para evaluar dos puntos fundamentales en la publicación: la comunicación interna generada a partir de sus autores y la comunicación externa establecida por los usuarios (lectores). Finalmente, los resultados muestran el nivel de visibilidad de la publicación.

Crossref Open Citation Index (COCI): 300 millones de citas abiertas creadas a partir de las referencias ‘Open’ incluidas en Crossref

opencitations-logo-50-with-words-greybg

 

 Crossref Open Citation Index (COCI)  es el  primer índice de citas abiertas, en el que se ha aplicado el concepto de citas como entidades de datos de primera clase para indexar los contenidos de una de las principales bases de datos abiertas de información de citas académicas, Crosref.

OpenCitations  es una organización de infraestructura académica dedicada a la promoción de la publicación semántica mediante el uso de tecnologías web semánticas (datos vinculados) y dedicada a la promoción de publicaciones semánticas y citas abiertas.

COCI es un índice de todas las citas abiertas de DOI a DOI presentes en Crossref, y actualmente incluye más de 300 millones de citas, obtenidas analizando las listas de referencia abiertas de los artículos depositados allí. COCI está disponible en http://opencitations.net/index/coci, y se publica bajo una exención CC0.

Estos índices de citas abiertas tienen las siguientes características en común:

  1. Las citas que contienen son todas abiertas  [1] .
  2. Las citas se tratan como entidades de datos de primera clase;
  3. Cada cita se identifica mediante un identificador de cita abierta (OCI) , que tiene una estructura simple: las letras minúsculas «oci» seguidas de dos puntos, seguidas de dos números separados por un guión (por ejemplo, oci: 1-18);
  4. Los metadatos de citas se registran en RDF, según el modelo de datos de OpenCitations [2] ;
  5. Las instrucciones RDF para cada cita registran las propiedades básicas que se muestran en la siguiente figura, que se basa en Citation Typing Ontology (CiTO) para describir los datos, y Provenance Ontology (PROV-O) para la información de procedencia.

ie-CSIC : Índice de evaluación de editoriales

41505942540_c683e7b2c7_o_d

ie-CSIC : Indice de editoriales CSIC: manual PCO. Versión modificada noviembre 2017. Madris:CSIC, 2018

Texto completo

Listado de editoriales

La comunidad investigadora del CSIC cuenta con una nueva herramienta: se trata de ie-CSIC (Índice de editoriales CSIC), un índice de editoriales con valor asignado, con el propósito de ayudar en la evaluación de la producción científica de los investigadores del CSIC dentro de la PCO de cada centro e instituto.

 

La evaluación del cumplimiento de los objetivos que se realiza anualmente en el CSIC incluye la evaluación de la producción científica, y dentro de esta, tienen un destacado papel los libros y capítulos de libros. De forma paralela a las revistas científicas, a cada libro incluido en conCIENCIA se le asigna un valor alto, medio o bajo, dependiendo de la editorial en la que haya sido publicado. Hasta ahora no se había publicado un listado que permitiera a los investigadores conocer por anticipado cómo se valoraba la publicación en una u otra editorial, y las asignaciones de valor a las editoriales se habían llevado a cabo en distintos momentos y sin la posibilidad de manejar sistemáticamente datos de referencia externos.

Con el fin de corregir esta situación, se intentó recurrir a instrumentos y listados de valoración editorial, pero ninguno se adaptaba a las necesidades de una institución como el CSIC. Por ello, en junio de 2016 e impulsado por la VICYT, se puso en marcha un proceso para desarrollar un índice de editoriales con un valor asignado: ie-CSIC (Índice de Editoriales CSIC).

Para la elaboración de ie-CSIC, se partió de las editoriales registradas en conCIENCIA, cuyos nombres fueron corregidos y homogenizados con el fin de obtener una única entrada por editorial. El listado resultante se contrastó con las editoriales recogidas en cuatro índices reconocidos a nivel nacional e internacional: Book Citation Index (Thomson Reuters), Scholarly Publishers Indicators (SPI) / Prestigio editorial (Grupo ILIA/CSIC), Scopus Book Titles (Elsevier) y Norwegian Register for Scientific Journals, Series and Publishers (NSD). Finalizado este cotejo, se elaboró un único y extenso listado en el que a cada editorial se le asignó un valor (alto, medio, bajo) siguiendo criterios homogéneos y utilizando datos obtenidos de los instrumentos de referencia consultados. Para un mayor detalle sobre la metodología seguida, consúltese el pdf anexo.

En esta primera versión del índice de ie-CSIC, se recogen un total de 5817 editoriales procedentes de las cinco fuentes mencionadas en el párrafo anterior, de las cuales 1044 están clasificadas con valor Alto, 1664 con valor medio y 3109 con valor bajo.

Está previsto realizar actualizaciones periódicas de ie-CSIC para incorporar todas aquellas editoriales que se vayan registrando en conCIENCIA en el futuro, corregir los errores que se detecten y perfeccionar los datos. En el caso de que sea necesaria la revisión concreta de alguna editorial, esta podrá ser llevada a cabo por las ocho comisiones de áreas científicas del CSIC y sus decisiones se incluirán en versiones siguientes de ie-CSIC.

Actividad investigadora de las universidades españolas. Informe IUNE 2018

28341291897_ae7ffa26be_b_d

Elías Sanz-Casado (Coord.) Actividad investigadora de las universidades españolas. Informe IUNE 2018. Alianza 4 Universidades, 2018

Texto completo

El Informe IUNE 2018 analiza la actividad científica de las universidades españolas
en la década 2007-2016. El estudio se realiza desde distintas dimensiones, con la
finalidad de conocer en profundidad la actividad investigadora y tecnológica de las
universidades que conforman el Sistema Universitario Español (SUE). 

 

El Observatorio IUNE es el resultado del trabajo realizado por un grupo de investigadores pertenecientes a las universidades que integran la “Alianza 4U”: Universidad Carlos III de Madrid, Universidad Autónoma de Madrid, UniversitatAutònoma de Barcelona y Universitat Pompeu Fabra.

La creación y desarrollo del Observatorio IUNE ha sido posible gracias a la financiación recibida por los ministerios de Ciencia e Innovación y de Educación. El Ministerio de Educación, Cultura y Deporte firmó un convenio con la Alianza 4U para el apoyo al Observatorio IUNE. Este es el informe correspondiente al periodo 2007-2016 que se elabora anualmente, a partir de los datos del Observatorio IUNE.

El análisis de las dimensiones de la actividad científica e investigadora de las universidades españolas en el período 2007-2016 permite obtener las siguientes conclusiones:

• La evolución de los ingresos liquidados por operaciones no financieras muestra una bajada importante en la financiación de las universidades españolas, pasando de 9.814 millones de euros en 2008 a 9.228 en 2016, con un descenso de un 6%.

Los ingresos generados por la investigación en las universidades españolas también han tenido una caída importante, ya que han pasado de 1.312 millones de euros en 2008 a 1.098 millones en 2016, lo que ha supuesto una pérdida de un 16,31.

• Por los que respecta a los recursos humanos, el promedio de profesores para este período ha sido de 62.837. No han crecido significativamente las plantillas desde 2007, ya que se ha pasado de 59.925 profesores en ese año (2007) a 64.296 (2016).

• El número total de publicaciones del SUE recogida en la base de datos Web of Science (WoS) ha sido de 451.744 documentos, pasando de 31.690 publicaciones (2007) a 54.764 (2016), un 72,81% más.

• Las universidades con un mayor número de documentos en la base de datos WoS
son: Universitat de Barcelona (UB) con un 9,84% del total del SUE, la Universitat Autònoma de Barcelona (UAB) con 8,21%, y la Universidad Complutense de Madrid (UCM) con 6,7%.

• Sin embargo, si analizamos las publicaciones por profesor, destaca la Universitat Pompeu Fabra (UPF) con una media anual de 3,20 docs/profesor, seguida de la Universitat Autònoma de Barcelona (UAB) con 2,42 docs/profesor.

• La productividad del SUE en la década analizada es de 0,72 documentos por profesor/año. Esta productividad ha aumentado en el período, pasando de 0,53 (2007) a 0,85 (2016). El crecimiento acumulativo medio de la productividad asciende a 5,39%.

• Respecto a la producción científica por CCAA, Cataluña aportó un 25,85% al total del SUE, seguida de la Comunidad de Madrid con un 19,97% y Andalucía con un 15,84%.

• Desagregando los datos por área temática, es Ciencias Experimentales (EXP) la más productiva con un 37,47% del total. Le siguen Medicina y Farmacología (MED) e Arquitectura, Ingeniería y Ciencias de Computación (ING) con 27,36% y un 25,4%, respectivamente. Ciencias Sociales y Humanidades (SOC) aportan un 10,67%, y Arte (ART) un 5,97% a la producción total del SUE, siendo las áreas peor representadas en esta base de datos.

• Un 43,18% de la producción total del SUE se firmó en colaboración internacional frente a un 28,06% en colaboración nacional. En cuanto a la evolución de la colaboración, es la internacional la que mayor crecimiento acumulativo muestra para todo el período (9,88%), seguida de un 3,65% en los documentos sin colaboración y un 3,43% en el caso de la colaboración nacional.

Estados Unidos sigue siendo el país con el que las universidades españolas mantienen una mayor colaboración, con un 21,72% sobre el total de la producción en colaboración internacional, seguido de Alemania (15,84%) y Reino Unido (15,73%).

• Las universidades españolas con mayor impacto considerando el número de citas recibidas en el decenio analizado, son la Universitat de Barcelona (13,35% del SUE), Universitat Autònoma de Barcelona (10,63% del SUE) y Universidad Autónoma de Madrid (7,5% SUE). En cuanto al impacto relativo (citas/profesor) son la Universitat Pompeu Fabra (UPF) con 64,03 citas/profesor y la Autónoma de Barcelona (UAB) con 43,62 citas/ profesor las que lideran este indicador.

• En términos de visibilidad, el SUE publicó un 52,88% de su producción científica en revistas del primer cuartil (Q1) en 2016. La evolución temporal de este indicador muestra un crecimiento acumulativo medio de un 7,40%. En cuanto al porcentaje de documentos publicados en las tres primeras revistas de cada categoría (TOP3), el 9,58% de la producción total del SUE se publicó en estas revistas con mejor factor de impacto.

• Respecto a actividad innovadora, el número de patentes del SUE muestra un incremento de un 104,69% en el decenio (de 279 a 529 patentes de 2007 a 2016). Destacan con mayor actividad patentadora la Universidad Politécnica de Madrid (UPM) con 359 patentes y la Universitat Politècnica de Catalunya (UPC) con 333 patentes para todo el período.

• El análisis de la competitividad, mediante los proyectos nacionales y europeos, muestra diferencias importantes: mientras que los primeros muestran un caída de un 12,65% en el período, los segundos se han incrementado un 53,01%.

• Las Universidades que destacan en obtención de proyectos europeos son las Politécnicas de Madrid y Cataluña con 332 (9,95%) y 233 proyectos (7%), respectivamente. Cuando se considera el número de proyectos por cada 100 profesores, ocupa el primer lugar la Universitat Pompeu Fabra (UPF) con 5,88 la Universitat Politècnica de Catalunya (UPC) con 1,66, y Universidad Carlos III de Madrid con 1,59 proyectos/ 100 profesores.

• Respecto a la dimensión de atracción y formación de talento, en el decenio se han concedido un total de 1.998 contratos Juan de la Cierva y 1.222 contratos Ramón y Cajal. Por su parte en lo que se refiere a becas/contratos predoctorales, el SUE consiguió un total de 11.871 FPU y 7.147 FPI.

 

Journal Citation Reports (JCR), Incluye las citas de libros y las distribuciones de citas diarias

 

jcr-citation-distribution

Figure 1. Journal Citation Report example journal distribution. Source: Clarivate press release, 26 June 2018.

 

2017 Journal Impact Factors Feature Citation Distributions. Scholary Kitchen
By PHIL DAVISJUN 27, 2018

Ver original

Cada año Clarivate Analytics publica los datos de Journal Citation Reports (JCR), un compendio anual de métricas de citas a nivel de revista. Pero este año incluye algunas novedades.

En primer lugar, el 2018 JCR ahora incluirá citas de Clarivate Citation Index Book. Esta adición incrementará los puntajes del JIF del año pasado en aproximadamente 1%, de promedio, para los títulos de ciencia e ingeniería y un 2% para las revistas de ciencias sociales y humanidades. En 2016, Clarivate agregó, sin anuncio público , citas de su Emerging Sources Citation Index , que tuvo un efecto global de aumentar los JIF en un 5% y un 13%, respectivamente.

En segundo lugar, y lo que es más importante, el JCR ahora publicará las distribuciones de citas diarias.

Las distribuciones de diarios de Clarivate abordan y mejoran varias deficiencias de la propuesta original al:

  • Normalización de los histogramas. Esto evitará que los editores modifiquen sus ejes para presentar favorablemente sus publicaciones y ayudará a facilitar las comparaciones entre revistas.
    Estandarizar los datos incluidos en cada histograma. Esto evitará que editores y editores seleccionen los documentos que desean perfilar.
  • Proporcionar estadísticas descriptivas (rendimiento medio del papel) basadas en el tipo de artículo (artículo frente a revisión), como se propuso en la recomendación n.º 14 de la Declaración de San Francisco sobre evaluación de la investigación (DORA).
  • Incluye una divulgación de citas desvinculadas, es decir, citas que cuentan para el puntaje de una revista pero que no incluyen información suficiente para identificar inequívocamente un artículo específico.

 

En resumen, la edición de 2018 del JCR muestra un intento sincero de abordar constructivamente las demandas de la comunidad investigadora. Sin embargo, la implementación deficiente de su panel de rendimiento del diario puede evitar que se usen estas mejoras y puede alentar activamente el uso indebido y el abuso por parte de editores predadores.

20 revistas eliminadas de JCR por altos niveles de autocitación y por concentración de citas entre revistas

Police officer writing ticket

Impact Factor Denied to 20 Journals For Self-Citation, Stacking. The Scholarly Kitchen by Phil Davies, jun 27, 2018.

Ver

 

Desde el punto de vista de la economía, la autocitación es el método más fácil para aumentar las citas. Todo autor lo sabe y cita sus propios artículos, por muy periféricos que sean sus relaciones con el tema en cuestión. Los editores lo saben también, y algunos han sido atrapados obligando a los autores a citar artículos publicados anteriormente en la revista. Este comportamiento tiene un precio a pagar, especialmente cuando se hace en exceso. Journal Citation Reports (JCR), rutinariamente coloca a las revistas en «tiempo de espera» cuando sus tasas de autocitación son excesivamente altas.

Este año, Clarivate Analytics, los editores del Journal Citation Reports (JCR), suprimieron 20 revistas,14 por los altos niveles de autocitación y seis para el apilamiento de citas, un patrón conocido informalmente como un » cártel de citas“. Además, apercibió a cinco revistas a las que calificó como Editorial Expression Concern después de conocer las anomalías de citas después de la finalización del informe de 2018. La supresión del JCR dura un año.

Los títulos se suprimen cuando la autocitación o el alto agrupamiento de citas distorsionan el Factor de Impacto de la Revista (JIF, por sus siglas en inglés) y el rango de una revista de tal manera que no refleja de manera justa el valor de las citas de la revista en la literatura profesional. Esto puede ocurrir a través de la autocitación, particularmente cuando hay una concentración de citas de artículos publicados en los dos años anteriores, o cuando hay un alto nivel de citas dirigidas por el JIF entre dos o más revistas. El primer cártel de citas se identificó en 2012, con la participación de cuatro revistas biomédicas. Se han identificado otros cárteles en ciencias del suelo, bioinformática y negocios. El JCR publica anualmente listas de títulos suprimidos con datos y descripciones clave.

El JCR tiene un documento público que explica las pautas que utiliza para evaluar las revistas para la supresión. Los títulos previamente suprimidos fueron aquello con niveles de umbral extremadamente altos, tan altos, que una revista incrementó su Factor de Impacto en casi 5 veces y se posicionó en el primer lugar entre su categoría temática.

 

 

 

Desarrollo de directrices internacionales para un proceso eficaz de evaluación del impacto de la investigación

Ampliar imagen

Adam, P., P. V. Ovseiko, et al. «ISRIA statement: ten-point guidelines for an effective process of research impact assessment.» Health Research Policy and Systems vol. 16, n. (2018). pp. 8. https://doi.org/10.1186/s12961-018-0281-5

Texto completo

 

Pavel Ovseiko, Paula Adam, Kathryn Graham y Jonathan Grant presentan las directrices internacionales iniciales para un proceso eficaz de evaluación del impacto de la investigación e invitan a los lectores del Impact Blog a ponerlas en práctica y compartir su experiencia, evidencia y competencia cultural con la comunidad global.

Los gobiernos, los organismos de financiación y las organizaciones de investigación de todo el mundo se han comprometido a medir el impacto de la investigación más allá de las publicaciones académicas. En consecuencia, se está desarrollando rápidamente una práctica multidisciplinaria llamada evaluación del impacto de la investigación. Sin embargo, esta práctica permanece en sus etapas formativas, por lo que actualmente no se dispone de recomendaciones sistematizadas o estándares aceptados para guiar a los investigadores y profesionales.

Poco después de articular la idea de método científico en su Novum Organum Scientiarum de 1620, Francis Bacon subrayó la importancia de que la investigación sea «útil y práctica para la vida del hombre». Sin embargo, no fue hasta hace mucho tiempo que los gobiernos, los organismos de financiación y las organizaciones de investigación de todo el mundo se dieron cuenta de la necesidad de medir el impacto de la investigación más allá de las publicaciones académicas, comprender cómo funciona la ciencia y optimizar su impacto social y económico.

Para ayudar a los investigadores y profesionales a mejorar el proceso, se han propuesto unas directrices iniciales para un proceso eficaz de evaluación del impacto de la investigación. La eficacia de estas directrices se basa en el conocimiento experto y la experiencia de los profesionales de la International School on Research Impact Assessment. En un documento publicado recientemente, con los puntos de vista de más de 450 expertos y profesionales de 34 países que participaron en la escuela durante los últimos cinco años (2013-2017) se sistematizan en directrices de diez puntos (Figura 1).

1. Analice su contexto
La investigación y su impacto están determinados por el contexto en el que se lleva a cabo y se evalúa la investigación. Por eso es importante entender tanto los entornos de investigación internos (por ejemplo, una institución o un grupo de investigación) como externos (por ejemplo, un país o un campo de investigación).

2. Reflexione continuamente sobre sus propósitos
Las preguntas y la metodología de la evaluación dependen de los objetivos principales. Los investigadores y los profesionales necesitan reflexionar continuamente sobre los propósitos de la evaluación del impacto de la investigación y su relación con la investigación que se está evaluando, sobre todo porque éstos pueden evolucionar con el tiempo.

3. Identificar a las partes interesadas y sus necesidades
Los financiadores de la investigación, los participantes en la investigación, los investigadores, los usuarios de la investigación y los beneficiarios de la investigación tienden a tener diferentes expectativas y usos previstos. Por lo tanto, es imperativo identificar y analizar a las partes interesadas y sus necesidades, priorizar sus intereses y desarrollar estrategias de compromiso apropiadas.

4. Comprometerse con las partes interesadas clave desde el principio
El compromiso de los grupos de interés es clave para valorar la co-creación con la evaluación del impacto de la investigación. Aumenta la solidez social de la misma al hacerla más transparente y participativa. La participación de las partes interesadas también hace que la puesta en práctica de los resultados de manera más eficaz y eficiente al reducir la necesidad de una fase de difusión separada.

5. Elegir críticamente los marcos conceptuales
Al tiempo que proporcionan orientación metodológica y claridad analítica, los marcos conceptuales inevitablemente reducen la riqueza y complejidad de la investigación que se está evaluando. Por lo tanto, los marcos conceptuales deben elegirse de manera crítica, prestando atención al contexto y propósito de un determinado ejercicio de evaluación del impacto de la investigación y a las limitaciones de los marcos.

6. Utilizar métodos mixtos y fuentes de datos múltiples
La evaluación del impacto de la investigación desde la perspectiva de las diferentes partes interesadas aumenta la solidez y la fiabilidad de las evaluaciones del impacto contextual. La mejor manera de lograrlo es desarrollar informes ricos sobre el impacto de la investigación utilizando una combinación de métodos y una variedad de fuentes de datos.

7. Seleccionar indicadores y métricas de manera responsable
Los indicadores cuantitativos y las métricas a menudo se utilizan indebidamente, lo que conduce a resultados sesgados e incentivos perversos. Para evitar estas consecuencias imprevistas, los indicadores cuantitativos y las métricas deben utilizarse de manera equilibrada en relación con el contexto de las evaluaciones del impacto ambiental y en apoyo de otros tipos de pruebas.

8. Anticipar y abordar las cuestiones éticas y los conflictos de intereses
Como en el caso de cualquier investigación y evaluación, la evaluación del impacto de la investigación puede plantear problemas éticos y crear conflictos de intereses. Para maximizar el valor social de la evaluación del impacto de la investigación, los investigadores y los profesionales deben anticipar y abordar estas cuestiones éticas y los conflictos de intereses.

9. Comunicar los resultados a través de múltiples canales
Las diferentes partes interesadas suelen preferir diferentes canales de comunicación y mensajes adaptados a sus necesidades y capacidades de asimilación de conocimientos. Por lo tanto, la traducción efectiva de los resultados de las evaluación del impacto de la investigación en la práctica requiere una estrategia de comunicación integral y diversificada, que incluya blogs de investigación, redes sociales y feeds web, entre otros.

10. Comparta su aprendizaje con la comunidad de evaluación del impacto de la investigación
Dado que la evaluación del impacto de la investigación se encuentra todavía en su etapa formativa, su desarrollo se sustenta en el conocimiento empírico y las habilidades prácticas de la comunidad de práctica. Por lo tanto, es imperativo que los investigadores y profesionales compartan sus experiencias y aprendizajes con la comunidad de práctica sobre la evaluación del impacto de la investigación.

Conclusiones

Estas directrices internacionales pueden ayudar a los profesionales y a los responsables de la formulación de políticas de los organismos de financiación, el gobierno, la industria, las organizaciones benéficas y el mundo académico a mejorar el proceso  evaluación del impacto de la investigación. Pero como estas las directrices no son exhaustivas, requieren evaluación y mejora continua. se invita a los lectores a poner en práctica las directrices y a compartir su experiencia, evidencia y competencia cultural adquirida a través de la implementación de las directrices en nuevos contextos con la comunidad global de práctica de RIA.

 

¿Qué importancia tiene twitter en la medición del impacto de una investigación? comprensión de lo que los tweets pueden y no pueden medir en el contexto de la evaluación de la investigación

 

twitschervogel01_derived_from_twitter-t-svg_

Haustein, S. «Scholarly Twitter metrics.» arXiv:1806.02201 [cs] vol., n. (2018). URL: http://arxiv.org/abs/1806.02201

 

 

Twitter ha sido posiblemente el más popular entre las fuentes de datos que forman la base de la llamada altmetría. Los tweets a los documentos académicos han sido anunciados como indicadores tempranos de citas así como medidas de impacto social. Este capítulo proporciona una visión general de la actividad de Twitter como base para las métricas académicas desde un punto de vista crítico y describe igualmente el potencial y las limitaciones de las métricas de Twitter. Al revisar la literatura sobre Twitter en la comunicación académica y analizar 24 millones de tweets que enlazan con documentos académicos, su objetivo es proporcionar una comprensión básica de lo que los tweets pueden y no pueden medir en el contexto de la evaluación de la investigación. Más allá del limitado poder explicativo de las bajas correlaciones entre los tweets y las citas, este capítulo considera qué tipos de documentos académicos son populares en Twitter, y cómo, cuándo y por quién se difunden, con el fin de comprender lo que miden los tweets en los documentos académicos. Aunque este capítulo no es capaz de resolver los problemas asociados con la creación de métricas significativas a partir de los medios de comunicación social, pone de relieve cuestiones particulares y tiene como objetivo proporcionar la base para las métricas avanzadas eruditas de Twitter.

 

 

Discrepancia entre las percepciones reales del impacto y las métricas que mide el impacto

figure-1

 

 

Rachel Borchardt and Matthew R. Hartings. The academic papers researchers regard as significant are not those that are highly cited. LSE impact blog, 2018

Ver original

 

Durante muchos años, la ciencia ha confiado en el conteo de citas como la principal forma de medir el impacto o la importancia de la investigación, informando de métricas como el Factor de Impacto y el h-index. Pero, ¿hasta qué punto estas métricas se alinean realmente con la evaluación subjetiva del impacto y la importancia de los investigadores? Rachel Borchardt y Matthew R. Hartings informan sobre un estudio que compara las percepciones de los investigadores sobre el significado, la importancia y lo que es altamente citado con los datos de citas reales. Los resultados revelan una discrepancia sorprendentemente grande entre las percepciones del impacto y la métrica que utilizamos actualmente para medirlo. Los trabajos científicos que los investigadores consideran significativos no son aquellos que son muy citados

 

Lo que comenzó como un intento de cuantificar la calidad de la investigación se nos ha escapado y ha cobrado vida propia. Este problema no es particularmente nuevo; ha sido ampliamente reconocido por académicos e investigadores y, como resultado, se está hablando de él más abiertamente. El problema es más sencillo se reduce a definir y medir el impacto.

Una descripción simple para la investigación de impacto es la investigación que se utiliza. Algunas investigaciones tienen la capacidad de transformar la sociedad a través de descubrimientos innovadores, de impactar en la política social y la regulación gubernamental a través de análisis que abren los ojos, y la capacidad de captar la atención del público con investigaciones que son relevantes para sus vidas, su medio ambiente o su bienestar. Este tipo de investigación se suele denominar «de alto impacto» y se ha convertido en el centro de atención de muchas universidades, centros de investigación y administradores que compiten por la financiación de becas, la atracción de los mejores y más brillantes estudiantes, y el prestigio y los rankings.

 

«Lo que comenzó como un intento de cuantificar la calidad de la investigación se nos ha escapado de las manos y ha cobrado vida propia.»

Rachel Borchardt and Matthew R. Hartings

 

Sin embargo, designar la investigación como de alto impacto no es tan sencillo como parece. Durante muchos años, el mundo académico ha confiado en el conteo de citas como la principal forma en que medimos el impacto o la importancia de la investigación. Como resultado, el conteo de citaciones es una de las métricas primarias usadas cuando se evalúa a los investigadores. Los recuentos de citas también forman la base de otras métricas, entre las que destacan el Factor de Impacto de Clarivate y el Índice h, que evalúan respectivamente la calidad/prestigio de la revista y la notoriedad de los investigadores.

Las citas, el JIF y el h-index han servido como el triunvirato de la evaluación de impacto durante muchos años, particularmente en los campos científico y tecnológico, donde los artículos de revistas se publican con frecuencia. Muchos estudios han señalado varios defectos con la confianza en estas métricas, y con el tiempo, se ha creado una multitud de métricas complementarias basadas en citas para tratar de abordar varias competencias. Al mismo tiempo, está emergiendo las medidas del impacto en los medios sociales (altmetrics) como una alternativa o complemento potencial a las citas, donde podemos recolectar diferentes datos sobre las formas en que la investigación es vista, guardada y compartida en línea.

Sin embargo, lo que se discute con menos frecuencia es qué tan bien todas estas métricas se alinean realmente con la evaluación subjetiva del impacto y la importancia misma. Todos hemos llegado a ver las métricas como sinónimo de impacto y, por delegación, de importancia. ¿Pero lo son?

 

Todos hemos llegado a ver las métricas como sinónimo de impacto y, por derivación, de la importancia de una investigación. ¿Pero realmente lo son?

 

Para responder a esta pregunta se encuestó a investigadores de Química para medir que percepciones tenían de aquellos documentos que consideraban importantes y sobre los materiales muy citados. En un artículo en el blog orientado a la química de Matt, se pidió a los lectores que analizaran 63 artículos de una edición de la revista Journal of the American Chemical Society y utilizaran el hastag el #JACSChallenge. Se les pidió que identificaran los tres artículos que consideraban más significativos (permitiéndoles definir el significado de la manera que consideraban adecuada); los más citados; los artículos que compartirían con otros químicos; y los artículos que compartirían más ampliamente. Se analizaron los datos de más de 350 encuestados.

Los resultados, si bien no fueron realmente sorprendentes, fueron sin embargo un claro ejemplo de lo diferentes que son estos conceptos. Para empezar, los encuestados eligieron diferentes artículos para cada una de las cuatro preguntas, aunque algunas preguntas se correlacionaron más que otras. Los artículos significativos y muy citados tenían la correlación más alta en.9, mientras que los artículos para compartir con los químicos y los artículos para compartir ampliamente tenían la correlación más baja.64 Esto demuestra que los encuestados ven diferencias en estos diferentes enfoques de lo que podríamos llamar «investigación de impacto».

Pero quizás el descubrimiento más sorprendente fue cuando empezamos a comparar estas respuestas a las citas. Al comparar las cuatro preguntas con los recuentos de citas 10 y 13 años después de la publicación de los artículos, las correlaciones oscilaron entre 0,06 (artículos para compartir con los químicos) y 0,33 (artículos muy citados). Esto muestra una discrepancia sorprendentemente grande entre las percepciones de los investigadores sobre el impacto y la métrica que utilizamos actualmente para medir el impacto.

 

La investigación demostró que existe una una discrepancia sorprendentemente grande entre las percepciones que los investigadores tienen sobre el impacto y la métrica que utilizamos actualmente para medir el impacto.

 

¿Por qué estas correlaciones son tan bajas? Es probable que haya una serie de razones por las que la práctica real de citación no está más alineada con la percepción de los investigadores, pero resalta cuán diferente es la percepción de la práctica actual.

Estos datos dejan en evidencia que hay un problema importante con las métricas – no están midiendo lo que todos comúnmente asumimos que estamos midiendo, o al menos, no están representando con precisión las percepciones más abstractas de impacto e importancia de los documentos. lo que demuestra que el impacto va más allá del conteo de citas, y más allá del impacto académico. Pero, ¿qué podemos hacer para cambiar la práctica actual?

Parte de la responsabilidad recae en los evaluadores – los administradores, los «benchmarkers» de los rankings de prestigio de las universidades, los financiadores de la investigación. Pero la responsabilidad también recae en los investigadores y sus respectivas sociedades profesionales. Muchas sociedades profesionales tienen declaraciones amplias y generales sobre el papel de las métricas en la evaluación de los investigadores en su campo, pero hay más trabajo por hacer.

Estos datos dejan en evidencia que hay un problema importante con las métricas – no están midiendo lo que todos comúnmente asumimos que estamos midiendo, o al menos, no están representando con precisión las percepciones más abstractas de impacto e importancia de los documentos. lo que demuestra que el impacto va más allá del conteo de citas, y más allá del impacto académico.

Por una parte describir mejor los tipos de impacto en la academia y más allá, y presentarlos en un documento en el que los investigadores puedan confiar cuando se les pida que presenten sus evidencias de investigación para su revisión. Por otra parte sería necesario crear un marco de evaluación que comunique claramente los tipos de resultados de investigación y los modelos para su evaluación. Este tipo de marco se asemejaría al utilizado en el Modelo Becker, creado para la comunidad biomédica, que destaca cinco áreas diferentes de impacto, incluyendo el impacto económico y político, y describe claramente los resultados de la investigación y los modelos de evaluación para cada área de impacto.

Todas las disciplinas académicas estarían bien servidas para examinar con seriedad los resultados de la investigación de su disciplina y proporcionar una orientación significativa sobre su importancia en la comunicación científica de esa disciplina, junto con las mejores prácticas para su evaluación apropiada. Al mismo tiempo, los investigadores también pueden abogar por un cambio en las prácticas de evaluación de la investigación en sus instituciones en forma de documentos de políticas actualizados, incluidas las directrices departamentales para la promoción del investigador, que reflejen con mayor precisión su investigación disciplinaria y su impacto.

Sólo entonces empezaremos a cerrar la brecha entre la práctica «real» de impacto y la evaluación significativa de la investigación.

Esta entrada de blog se basa en el artículo co-escrito por los autores, «Perception of the importance of chemistry research papers and comparison to citation rates«, publicado en PLoS ONE (DOI: 10.1371/journal.pone.0194903).

Crédito de la imagen destacada: Dmitri Popov, via Unsplash (licenciado bajo una licencia CC0 1.0).