Archivo de la categoría: Investigación

ie-CSIC : Índice de evaluación de editoriales

41505942540_c683e7b2c7_o_d

ie-CSIC : Indice de editoriales CSIC: manual PCO. Versión modificada noviembre 2017. Madris:CSIC, 2018

Texto completo

Listado de editoriales

La comunidad investigadora del CSIC cuenta con una nueva herramienta: se trata de ie-CSIC (Índice de editoriales CSIC), un índice de editoriales con valor asignado, con el propósito de ayudar en la evaluación de la producción científica de los investigadores del CSIC dentro de la PCO de cada centro e instituto.

 

La evaluación del cumplimiento de los objetivos que se realiza anualmente en el CSIC incluye la evaluación de la producción científica, y dentro de esta, tienen un destacado papel los libros y capítulos de libros. De forma paralela a las revistas científicas, a cada libro incluido en conCIENCIA se le asigna un valor alto, medio o bajo, dependiendo de la editorial en la que haya sido publicado. Hasta ahora no se había publicado un listado que permitiera a los investigadores conocer por anticipado cómo se valoraba la publicación en una u otra editorial, y las asignaciones de valor a las editoriales se habían llevado a cabo en distintos momentos y sin la posibilidad de manejar sistemáticamente datos de referencia externos.

Con el fin de corregir esta situación, se intentó recurrir a instrumentos y listados de valoración editorial, pero ninguno se adaptaba a las necesidades de una institución como el CSIC. Por ello, en junio de 2016 e impulsado por la VICYT, se puso en marcha un proceso para desarrollar un índice de editoriales con un valor asignado: ie-CSIC (Índice de Editoriales CSIC).

Para la elaboración de ie-CSIC, se partió de las editoriales registradas en conCIENCIA, cuyos nombres fueron corregidos y homogenizados con el fin de obtener una única entrada por editorial. El listado resultante se contrastó con las editoriales recogidas en cuatro índices reconocidos a nivel nacional e internacional: Book Citation Index (Thomson Reuters), Scholarly Publishers Indicators (SPI) / Prestigio editorial (Grupo ILIA/CSIC), Scopus Book Titles (Elsevier) y Norwegian Register for Scientific Journals, Series and Publishers (NSD). Finalizado este cotejo, se elaboró un único y extenso listado en el que a cada editorial se le asignó un valor (alto, medio, bajo) siguiendo criterios homogéneos y utilizando datos obtenidos de los instrumentos de referencia consultados. Para un mayor detalle sobre la metodología seguida, consúltese el pdf anexo.

En esta primera versión del índice de ie-CSIC, se recogen un total de 5817 editoriales procedentes de las cinco fuentes mencionadas en el párrafo anterior, de las cuales 1044 están clasificadas con valor Alto, 1664 con valor medio y 3109 con valor bajo.

Está previsto realizar actualizaciones periódicas de ie-CSIC para incorporar todas aquellas editoriales que se vayan registrando en conCIENCIA en el futuro, corregir los errores que se detecten y perfeccionar los datos. En el caso de que sea necesaria la revisión concreta de alguna editorial, esta podrá ser llevada a cabo por las ocho comisiones de áreas científicas del CSIC y sus decisiones se incluirán en versiones siguientes de ie-CSIC.

Los estadounidenses consideran muy positivas a largo plazo las inversiones estatales en investigación científica y médica

US-HEALTH-PEOPLE-RESEARCH-CANCER-pharmaceutical

Kenedy, Brian «Americans broadly favor government funding for medical and science research» Washington: Pew Research, 2018

Texto completo

Alrededor de ocho de cada diez adultos estadounidenses dicen que las inversiones del gobierno en investigación médica, ingeniería y tecnología o investigación científica básica por lo general valen la pena a largo plazo. Estas opiniones son compartidas por las mayorías de todo el espectro político.

Alrededor de ocho de cada diez adultos estadounidenses dicen que las inversiones del gobierno en investigación médica (80%), ingeniería y tecnología (80%) o investigación científica básica (77%) generalmente valen la pena a largo plazo. Sólo dos de cada diez creen que la financiación gubernamental en cada una de estas áreas no vale la pena (19% en el caso de investigación médica, 19% para ingeniería y tecnología y 22% para investigación científica básica).

También la mayoría del espectro político está de acuerdo en que las inversiones gubernamentales en investigación médica, ingeniería y tecnología o investigación científica básica valen la pena a largo plazo, aunque existen diferencias políticas sobre estas cuestiones. Por ejemplo, el 92% de los demócratas liberales dicen que las inversiones del gobierno en investigación científica básica finalmente valen la pena. En comparación, el 61% de los republicanos conservadores dicen que las inversiones del gobierno en investigación básica valen la pena, mientras que una minoría considerable (38%) dice que las inversiones del gobierno en investigación científica básica «no valen la pena».

Plan de trabajo de la Asociación de Universidades Europeas (EUA) sobre la evaluación de la investigación en la transición hacia la ciencia abierta

41336384590_2cb5c73d75_o_d

EUA Roadmap on Research Assessment in the Transition to Open Science EUA, 2018

Texto completo

 

Los nuevos enfoques de la evaluación de la investigación reflejan la urgente necesidad de cambiar el paradigma actual más allá del típico factor de impacto de la revista. Este La hoja de ruta aborda una selección de temas relacionados con los nuevos enfoques en la evaluación de la investigación, incluida la evaluación de los resultados de la investigación, los investigadores y las unidades de investigación, y las instituciones.

La Asociación Europea de Universidades (EUA) ha apoyado de forma continuada a las universidades europeas. las universidades en la transición hacia la Ciencia Abierta y, en particular, hacia el Acceso Abierto. Al de su Grupo de Expertos en Ciencia 2.0/Ciencia Abierta, la EUA ha desarrollado una una serie de iniciativas en este ámbito, tal como se esboza en la hoja de ruta de la AEU sobre el acceso abierto a la investigación Publicaciones. Esta hoja de ruta se centraba principalmente en la introducción del acceso abierto como modelo principal de acceder a las publicaciones de investigación. Mirando hacia el futuro, hacia una transición más global hacia Ciencia Abierta, con su marco más amplio más allá del acceso a las publicaciones de investigación, la El Grupo de Expertos está empezando a abordar nuevos modelos de valoración y evaluación de la investigación en todos los niveles, ya que son fundamentales para lograr un sistema más justo, abierto y transparente impulsado por investigadores.

La ciencia abierta que abarca la investigación abierta en todas las áreas disciplinarias) todavía no es una práctica establecida y su integración en las comunidades científicas sigue siendo un reto, ya que adopta diversas formas. El acceso abierto a las publicaciones de investigación representa sólo una de las etapas necesarias de la Ciencia Abierta, y la Ciencia Abierta en su conjunto está todavía lejos de su pleno potencial, lo que requiere una transformación sustancial basada en los principios de compartir y colaborar. Los nuevos modelos cuantitativos y cualitativos futuros de valoración y evaluación de la investigación deben reflejar y promover una actitud tan novedosa.

El tema de la evaluación de la investigación, es decir, la búsqueda de mejores formas de evaluación, se está volviendo cada vez más importante para la comunidad científica en general y para una variedad de de los responsables políticos nacionales y europeos. Este desarrollo está inexorablemente ligado a la transición hacia la Ciencia Abierta.

Los nuevos enfoques de la evaluación de la investigación reflejan la urgente necesidad de cambiar el paradigma actual más allá del típico factor de impacto de la revista. Este La hoja de ruta aborda una selección de temas relacionados con los nuevos enfoques en la evaluación de la investigación, incluida la evaluación de los resultados de la investigación, los investigadores y las unidades de investigación, y las instituciones (laboratorios, centros de investigación y universidades). Con este documento, EUA tiene por objeto sensibilizar y apoyar a las instituciones en el desarrollo de la evaluación de la investigación enfoques que se centran en la calidad de la investigación, el impacto potencial y futuro, y que tienen en cuenta de Open Science.

En su plan de trabajo, la EUA identifica los siguientes objetivos para su futura labor en este ámbito:

  • Fomentar el desarrollo de enfoques de evaluación de la investigación flexibles, transparentes, justos y sólidos, recompensando las contribuciones de la Ciencia Abierta y teniendo en cuenta las diferencias entre las disciplinas académicas, la investigación multidisciplinaria y la investigación fundamental y aplicada;
  • Promover enfoques flexibles, transparentes y responsables en la evaluación de las carreras de los investigadores, teniendo en cuenta las diferentes etapas de sus carreras;
  • Apoyar a las universidades europeas y a las conferencias nacionales de rectores en el desarrollo y la aplicación de nuevos enfoques para la evaluación de la investigación.

 

Para ello, la EUA centrará sus esfuerzos en la recopilación y el intercambio de información, entablando un estrecho diálogo con las universidades y otras partes interesadas pertinentes y proponiendo recomendaciones sobre políticas y buenas prácticas.

Actividad investigadora de las universidades españolas. Informe IUNE 2018

28341291897_ae7ffa26be_b_d

Elías Sanz-Casado (Coord.) Actividad investigadora de las universidades españolas. Informe IUNE 2018. Alianza 4 Universidades, 2018

Texto completo

El Informe IUNE 2018 analiza la actividad científica de las universidades españolas
en la década 2007-2016. El estudio se realiza desde distintas dimensiones, con la
finalidad de conocer en profundidad la actividad investigadora y tecnológica de las
universidades que conforman el Sistema Universitario Español (SUE). 

 

El Observatorio IUNE es el resultado del trabajo realizado por un grupo de investigadores pertenecientes a las universidades que integran la “Alianza 4U”: Universidad Carlos III de Madrid, Universidad Autónoma de Madrid, UniversitatAutònoma de Barcelona y Universitat Pompeu Fabra.

La creación y desarrollo del Observatorio IUNE ha sido posible gracias a la financiación recibida por los ministerios de Ciencia e Innovación y de Educación. El Ministerio de Educación, Cultura y Deporte firmó un convenio con la Alianza 4U para el apoyo al Observatorio IUNE. Este es el informe correspondiente al periodo 2007-2016 que se elabora anualmente, a partir de los datos del Observatorio IUNE.

El análisis de las dimensiones de la actividad científica e investigadora de las universidades españolas en el período 2007-2016 permite obtener las siguientes conclusiones:

• La evolución de los ingresos liquidados por operaciones no financieras muestra una bajada importante en la financiación de las universidades españolas, pasando de 9.814 millones de euros en 2008 a 9.228 en 2016, con un descenso de un 6%.

Los ingresos generados por la investigación en las universidades españolas también han tenido una caída importante, ya que han pasado de 1.312 millones de euros en 2008 a 1.098 millones en 2016, lo que ha supuesto una pérdida de un 16,31.

• Por los que respecta a los recursos humanos, el promedio de profesores para este período ha sido de 62.837. No han crecido significativamente las plantillas desde 2007, ya que se ha pasado de 59.925 profesores en ese año (2007) a 64.296 (2016).

• El número total de publicaciones del SUE recogida en la base de datos Web of Science (WoS) ha sido de 451.744 documentos, pasando de 31.690 publicaciones (2007) a 54.764 (2016), un 72,81% más.

• Las universidades con un mayor número de documentos en la base de datos WoS
son: Universitat de Barcelona (UB) con un 9,84% del total del SUE, la Universitat Autònoma de Barcelona (UAB) con 8,21%, y la Universidad Complutense de Madrid (UCM) con 6,7%.

• Sin embargo, si analizamos las publicaciones por profesor, destaca la Universitat Pompeu Fabra (UPF) con una media anual de 3,20 docs/profesor, seguida de la Universitat Autònoma de Barcelona (UAB) con 2,42 docs/profesor.

• La productividad del SUE en la década analizada es de 0,72 documentos por profesor/año. Esta productividad ha aumentado en el período, pasando de 0,53 (2007) a 0,85 (2016). El crecimiento acumulativo medio de la productividad asciende a 5,39%.

• Respecto a la producción científica por CCAA, Cataluña aportó un 25,85% al total del SUE, seguida de la Comunidad de Madrid con un 19,97% y Andalucía con un 15,84%.

• Desagregando los datos por área temática, es Ciencias Experimentales (EXP) la más productiva con un 37,47% del total. Le siguen Medicina y Farmacología (MED) e Arquitectura, Ingeniería y Ciencias de Computación (ING) con 27,36% y un 25,4%, respectivamente. Ciencias Sociales y Humanidades (SOC) aportan un 10,67%, y Arte (ART) un 5,97% a la producción total del SUE, siendo las áreas peor representadas en esta base de datos.

• Un 43,18% de la producción total del SUE se firmó en colaboración internacional frente a un 28,06% en colaboración nacional. En cuanto a la evolución de la colaboración, es la internacional la que mayor crecimiento acumulativo muestra para todo el período (9,88%), seguida de un 3,65% en los documentos sin colaboración y un 3,43% en el caso de la colaboración nacional.

Estados Unidos sigue siendo el país con el que las universidades españolas mantienen una mayor colaboración, con un 21,72% sobre el total de la producción en colaboración internacional, seguido de Alemania (15,84%) y Reino Unido (15,73%).

• Las universidades españolas con mayor impacto considerando el número de citas recibidas en el decenio analizado, son la Universitat de Barcelona (13,35% del SUE), Universitat Autònoma de Barcelona (10,63% del SUE) y Universidad Autónoma de Madrid (7,5% SUE). En cuanto al impacto relativo (citas/profesor) son la Universitat Pompeu Fabra (UPF) con 64,03 citas/profesor y la Autónoma de Barcelona (UAB) con 43,62 citas/ profesor las que lideran este indicador.

• En términos de visibilidad, el SUE publicó un 52,88% de su producción científica en revistas del primer cuartil (Q1) en 2016. La evolución temporal de este indicador muestra un crecimiento acumulativo medio de un 7,40%. En cuanto al porcentaje de documentos publicados en las tres primeras revistas de cada categoría (TOP3), el 9,58% de la producción total del SUE se publicó en estas revistas con mejor factor de impacto.

• Respecto a actividad innovadora, el número de patentes del SUE muestra un incremento de un 104,69% en el decenio (de 279 a 529 patentes de 2007 a 2016). Destacan con mayor actividad patentadora la Universidad Politécnica de Madrid (UPM) con 359 patentes y la Universitat Politècnica de Catalunya (UPC) con 333 patentes para todo el período.

• El análisis de la competitividad, mediante los proyectos nacionales y europeos, muestra diferencias importantes: mientras que los primeros muestran un caída de un 12,65% en el período, los segundos se han incrementado un 53,01%.

• Las Universidades que destacan en obtención de proyectos europeos son las Politécnicas de Madrid y Cataluña con 332 (9,95%) y 233 proyectos (7%), respectivamente. Cuando se considera el número de proyectos por cada 100 profesores, ocupa el primer lugar la Universitat Pompeu Fabra (UPF) con 5,88 la Universitat Politècnica de Catalunya (UPC) con 1,66, y Universidad Carlos III de Madrid con 1,59 proyectos/ 100 profesores.

• Respecto a la dimensión de atracción y formación de talento, en el decenio se han concedido un total de 1.998 contratos Juan de la Cierva y 1.222 contratos Ramón y Cajal. Por su parte en lo que se refiere a becas/contratos predoctorales, el SUE consiguió un total de 11.871 FPU y 7.147 FPI.

 

Journal Citation Reports (JCR), Incluye las citas de libros y las distribuciones de citas diarias

 

jcr-citation-distribution

Figure 1. Journal Citation Report example journal distribution. Source: Clarivate press release, 26 June 2018.

 

2017 Journal Impact Factors Feature Citation Distributions. Scholary Kitchen
By PHIL DAVISJUN 27, 2018

Ver original

Cada año Clarivate Analytics publica los datos de Journal Citation Reports (JCR), un compendio anual de métricas de citas a nivel de revista. Pero este año incluye algunas novedades.

En primer lugar, el 2018 JCR ahora incluirá citas de Clarivate Citation Index Book. Esta adición incrementará los puntajes del JIF del año pasado en aproximadamente 1%, de promedio, para los títulos de ciencia e ingeniería y un 2% para las revistas de ciencias sociales y humanidades. En 2016, Clarivate agregó, sin anuncio público , citas de su Emerging Sources Citation Index , que tuvo un efecto global de aumentar los JIF en un 5% y un 13%, respectivamente.

En segundo lugar, y lo que es más importante, el JCR ahora publicará las distribuciones de citas diarias.

Las distribuciones de diarios de Clarivate abordan y mejoran varias deficiencias de la propuesta original al:

  • Normalización de los histogramas. Esto evitará que los editores modifiquen sus ejes para presentar favorablemente sus publicaciones y ayudará a facilitar las comparaciones entre revistas.
    Estandarizar los datos incluidos en cada histograma. Esto evitará que editores y editores seleccionen los documentos que desean perfilar.
  • Proporcionar estadísticas descriptivas (rendimiento medio del papel) basadas en el tipo de artículo (artículo frente a revisión), como se propuso en la recomendación n.º 14 de la Declaración de San Francisco sobre evaluación de la investigación (DORA).
  • Incluye una divulgación de citas desvinculadas, es decir, citas que cuentan para el puntaje de una revista pero que no incluyen información suficiente para identificar inequívocamente un artículo específico.

 

En resumen, la edición de 2018 del JCR muestra un intento sincero de abordar constructivamente las demandas de la comunidad investigadora. Sin embargo, la implementación deficiente de su panel de rendimiento del diario puede evitar que se usen estas mejoras y puede alentar activamente el uso indebido y el abuso por parte de editores predadores.

20 revistas eliminadas de JCR por altos niveles de autocitación y por concentración de citas entre revistas

Police officer writing ticket

Impact Factor Denied to 20 Journals For Self-Citation, Stacking. The Scholarly Kitchen by Phil Davies, jun 27, 2018.

Ver

 

Desde el punto de vista de la economía, la autocitación es el método más fácil para aumentar las citas. Todo autor lo sabe y cita sus propios artículos, por muy periféricos que sean sus relaciones con el tema en cuestión. Los editores lo saben también, y algunos han sido atrapados obligando a los autores a citar artículos publicados anteriormente en la revista. Este comportamiento tiene un precio a pagar, especialmente cuando se hace en exceso. Journal Citation Reports (JCR), rutinariamente coloca a las revistas en «tiempo de espera» cuando sus tasas de autocitación son excesivamente altas.

Este año, Clarivate Analytics, los editores del Journal Citation Reports (JCR), suprimieron 20 revistas,14 por los altos niveles de autocitación y seis para el apilamiento de citas, un patrón conocido informalmente como un » cártel de citas“. Además, apercibió a cinco revistas a las que calificó como Editorial Expression Concern después de conocer las anomalías de citas después de la finalización del informe de 2018. La supresión del JCR dura un año.

Los títulos se suprimen cuando la autocitación o el alto agrupamiento de citas distorsionan el Factor de Impacto de la Revista (JIF, por sus siglas en inglés) y el rango de una revista de tal manera que no refleja de manera justa el valor de las citas de la revista en la literatura profesional. Esto puede ocurrir a través de la autocitación, particularmente cuando hay una concentración de citas de artículos publicados en los dos años anteriores, o cuando hay un alto nivel de citas dirigidas por el JIF entre dos o más revistas. El primer cártel de citas se identificó en 2012, con la participación de cuatro revistas biomédicas. Se han identificado otros cárteles en ciencias del suelo, bioinformática y negocios. El JCR publica anualmente listas de títulos suprimidos con datos y descripciones clave.

El JCR tiene un documento público que explica las pautas que utiliza para evaluar las revistas para la supresión. Los títulos previamente suprimidos fueron aquello con niveles de umbral extremadamente altos, tan altos, que una revista incrementó su Factor de Impacto en casi 5 veces y se posicionó en el primer lugar entre su categoría temática.

 

 

 

Desarrollo de directrices internacionales para un proceso eficaz de evaluación del impacto de la investigación

Ampliar imagen

Adam, P., P. V. Ovseiko, et al. «ISRIA statement: ten-point guidelines for an effective process of research impact assessment.» Health Research Policy and Systems vol. 16, n. (2018). pp. 8. https://doi.org/10.1186/s12961-018-0281-5

Texto completo

 

Pavel Ovseiko, Paula Adam, Kathryn Graham y Jonathan Grant presentan las directrices internacionales iniciales para un proceso eficaz de evaluación del impacto de la investigación e invitan a los lectores del Impact Blog a ponerlas en práctica y compartir su experiencia, evidencia y competencia cultural con la comunidad global.

Los gobiernos, los organismos de financiación y las organizaciones de investigación de todo el mundo se han comprometido a medir el impacto de la investigación más allá de las publicaciones académicas. En consecuencia, se está desarrollando rápidamente una práctica multidisciplinaria llamada evaluación del impacto de la investigación. Sin embargo, esta práctica permanece en sus etapas formativas, por lo que actualmente no se dispone de recomendaciones sistematizadas o estándares aceptados para guiar a los investigadores y profesionales.

Poco después de articular la idea de método científico en su Novum Organum Scientiarum de 1620, Francis Bacon subrayó la importancia de que la investigación sea «útil y práctica para la vida del hombre». Sin embargo, no fue hasta hace mucho tiempo que los gobiernos, los organismos de financiación y las organizaciones de investigación de todo el mundo se dieron cuenta de la necesidad de medir el impacto de la investigación más allá de las publicaciones académicas, comprender cómo funciona la ciencia y optimizar su impacto social y económico.

Para ayudar a los investigadores y profesionales a mejorar el proceso, se han propuesto unas directrices iniciales para un proceso eficaz de evaluación del impacto de la investigación. La eficacia de estas directrices se basa en el conocimiento experto y la experiencia de los profesionales de la International School on Research Impact Assessment. En un documento publicado recientemente, con los puntos de vista de más de 450 expertos y profesionales de 34 países que participaron en la escuela durante los últimos cinco años (2013-2017) se sistematizan en directrices de diez puntos (Figura 1).

1. Analice su contexto
La investigación y su impacto están determinados por el contexto en el que se lleva a cabo y se evalúa la investigación. Por eso es importante entender tanto los entornos de investigación internos (por ejemplo, una institución o un grupo de investigación) como externos (por ejemplo, un país o un campo de investigación).

2. Reflexione continuamente sobre sus propósitos
Las preguntas y la metodología de la evaluación dependen de los objetivos principales. Los investigadores y los profesionales necesitan reflexionar continuamente sobre los propósitos de la evaluación del impacto de la investigación y su relación con la investigación que se está evaluando, sobre todo porque éstos pueden evolucionar con el tiempo.

3. Identificar a las partes interesadas y sus necesidades
Los financiadores de la investigación, los participantes en la investigación, los investigadores, los usuarios de la investigación y los beneficiarios de la investigación tienden a tener diferentes expectativas y usos previstos. Por lo tanto, es imperativo identificar y analizar a las partes interesadas y sus necesidades, priorizar sus intereses y desarrollar estrategias de compromiso apropiadas.

4. Comprometerse con las partes interesadas clave desde el principio
El compromiso de los grupos de interés es clave para valorar la co-creación con la evaluación del impacto de la investigación. Aumenta la solidez social de la misma al hacerla más transparente y participativa. La participación de las partes interesadas también hace que la puesta en práctica de los resultados de manera más eficaz y eficiente al reducir la necesidad de una fase de difusión separada.

5. Elegir críticamente los marcos conceptuales
Al tiempo que proporcionan orientación metodológica y claridad analítica, los marcos conceptuales inevitablemente reducen la riqueza y complejidad de la investigación que se está evaluando. Por lo tanto, los marcos conceptuales deben elegirse de manera crítica, prestando atención al contexto y propósito de un determinado ejercicio de evaluación del impacto de la investigación y a las limitaciones de los marcos.

6. Utilizar métodos mixtos y fuentes de datos múltiples
La evaluación del impacto de la investigación desde la perspectiva de las diferentes partes interesadas aumenta la solidez y la fiabilidad de las evaluaciones del impacto contextual. La mejor manera de lograrlo es desarrollar informes ricos sobre el impacto de la investigación utilizando una combinación de métodos y una variedad de fuentes de datos.

7. Seleccionar indicadores y métricas de manera responsable
Los indicadores cuantitativos y las métricas a menudo se utilizan indebidamente, lo que conduce a resultados sesgados e incentivos perversos. Para evitar estas consecuencias imprevistas, los indicadores cuantitativos y las métricas deben utilizarse de manera equilibrada en relación con el contexto de las evaluaciones del impacto ambiental y en apoyo de otros tipos de pruebas.

8. Anticipar y abordar las cuestiones éticas y los conflictos de intereses
Como en el caso de cualquier investigación y evaluación, la evaluación del impacto de la investigación puede plantear problemas éticos y crear conflictos de intereses. Para maximizar el valor social de la evaluación del impacto de la investigación, los investigadores y los profesionales deben anticipar y abordar estas cuestiones éticas y los conflictos de intereses.

9. Comunicar los resultados a través de múltiples canales
Las diferentes partes interesadas suelen preferir diferentes canales de comunicación y mensajes adaptados a sus necesidades y capacidades de asimilación de conocimientos. Por lo tanto, la traducción efectiva de los resultados de las evaluación del impacto de la investigación en la práctica requiere una estrategia de comunicación integral y diversificada, que incluya blogs de investigación, redes sociales y feeds web, entre otros.

10. Comparta su aprendizaje con la comunidad de evaluación del impacto de la investigación
Dado que la evaluación del impacto de la investigación se encuentra todavía en su etapa formativa, su desarrollo se sustenta en el conocimiento empírico y las habilidades prácticas de la comunidad de práctica. Por lo tanto, es imperativo que los investigadores y profesionales compartan sus experiencias y aprendizajes con la comunidad de práctica sobre la evaluación del impacto de la investigación.

Conclusiones

Estas directrices internacionales pueden ayudar a los profesionales y a los responsables de la formulación de políticas de los organismos de financiación, el gobierno, la industria, las organizaciones benéficas y el mundo académico a mejorar el proceso  evaluación del impacto de la investigación. Pero como estas las directrices no son exhaustivas, requieren evaluación y mejora continua. se invita a los lectores a poner en práctica las directrices y a compartir su experiencia, evidencia y competencia cultural adquirida a través de la implementación de las directrices en nuevos contextos con la comunidad global de práctica de RIA.

 

¿Qué importancia tiene twitter en la medición del impacto de una investigación? comprensión de lo que los tweets pueden y no pueden medir en el contexto de la evaluación de la investigación

 

twitschervogel01_derived_from_twitter-t-svg_

Haustein, S. «Scholarly Twitter metrics.» arXiv:1806.02201 [cs] vol., n. (2018). URL: http://arxiv.org/abs/1806.02201

 

 

Twitter ha sido posiblemente el más popular entre las fuentes de datos que forman la base de la llamada altmetría. Los tweets a los documentos académicos han sido anunciados como indicadores tempranos de citas así como medidas de impacto social. Este capítulo proporciona una visión general de la actividad de Twitter como base para las métricas académicas desde un punto de vista crítico y describe igualmente el potencial y las limitaciones de las métricas de Twitter. Al revisar la literatura sobre Twitter en la comunicación académica y analizar 24 millones de tweets que enlazan con documentos académicos, su objetivo es proporcionar una comprensión básica de lo que los tweets pueden y no pueden medir en el contexto de la evaluación de la investigación. Más allá del limitado poder explicativo de las bajas correlaciones entre los tweets y las citas, este capítulo considera qué tipos de documentos académicos son populares en Twitter, y cómo, cuándo y por quién se difunden, con el fin de comprender lo que miden los tweets en los documentos académicos. Aunque este capítulo no es capaz de resolver los problemas asociados con la creación de métricas significativas a partir de los medios de comunicación social, pone de relieve cuestiones particulares y tiene como objetivo proporcionar la base para las métricas avanzadas eruditas de Twitter.

 

 

¿Existe correspondencia entre la medición altmétrica y la calidad de la investigación? un estudio empírico a gran escala basado en datos de F1000Prime.

featured-image

Bornmann, L. and R. Haunschild «Do altmetrics correlate with the quality of papers? A large-scale empirical study based on F1000Prime data.» PloS One vol. 13, n. 5 (2018). pp. e0197133.

Texto completo

 

En este estudio, se aborda la cuestión de si (y hasta qué punto, respectivamente) la medición altmétrica se correlaciona con la calidad científica de los trabajos (medida por las evaluaciones de pares). Sólo unos pocos estudios han investigado previamente la relación entre la altmetria y las evaluaciones por pares. En el primer paso, se analizan las dimensiones subyacentes de la medición por las métricas tradicionales (recuentos de citas) y la altmetria utilizando el análisis de componentes principales (PCA) y el análisis factorial (FA). En el segundo paso, se analiza la relación entre las dimensiones y la calidad de los trabajos (medida por el sistema de revisión por pares posterior a la publicación de las evaluaciones F1000Prime), utilizando el análisis de regresión.

Los resultados del PCA y FA muestran que la medición altmétrica opera a lo largo de diferentes dimensiones, mientras que los recuentos de Mendeley están relacionados con los recuentos de citas, y los tweets forman una dimensión distinta. Los resultados del análisis de regresión indican que las métricas basadas en citas y los conteos de lectores están significativamente más relacionados con la calidad que con los tweets. Este resultado, por un lado, cuestiona el uso de los recuentos de Twitter para fines de evaluación de la investigación y, por otro lado, indica el uso potencial de los recuentos de lectores de Mendeley.

 

Artículos similares:

Redes sociales y altmetrics: nuevos retos para las revistas científicas

Los mil y un reflejos de las publicaciones en el laberinto de espejos de las nuevas métricas.

Relación entre las altermetrías y las medidas tradicionales de medición científica

Los artículos que recibieron más atención en Altmetric.com en 2017

El uso académico de medios sociales y altmetrics: Una revisión de la literatura

Métricas significativas: una guía del bibliotecario del siglo XXI sobre bibliometría, altmetrics e impacto de la investigación

Los recuentos de lectores que ofrece Mendeley son una de las evidencia más consistentes para la estimación temprana del impacto académico

Análisis de datos de investigación: correlación entre citas y puntuaciones altmetrics

Métricas de próxima generación: métricas responsables y evaluación para ciencia abierta: Informe del Grupo de Expertos de la Comisión Europea sobre Altmetrics. 

 

National Institutes of Health (NIH) publica un plan estratégico para la gestión de datos de investigación (RDM)

2018-06-04_23-29-00

Strategic Plan for Data Science. National Institutes of Health (NIH), 2018

Texto completo

 

Los recursos de datos accesibles, bien organizados, seguros y eficientemente operados son críticos para la investigación científica moderna. Al maximizar el valor de los datos generados a través de los esfuerzos de financiación, se puede acelerar sustancialmente el ritmo de los descubrimientos biomédicos y los avances médicos para obtener mejores resultados de salud. Para mantener el ritmo de los rápidos cambios en la ciencia de datos biomédicos, National Institutes of Health (NIH)  ha publicado  plan estratégico para la gestión de datos de investigación (RDM) para abordar el problema.

Los datos generados por la investigación biomédica se encuentran  ampliamente dispersos debido a que su creación parte de grupos relativamente pequeños de investigadores.  Además, estos datos aparecen  en una amplia variedad de formatos, lo que complica la capacidad de los investigadores para encontrar y utilizar datos de investigación biomédica generados por otros y crea la necesidad de una extensa «curación de datos» de datos.

Almacenar, administrar, normalizar y publicar las grandes cantidades de datos producidos por la investigación biomédica es una misión crítica para el futuro de la investigación en salud. En apoyo a este esfuerzo,  National Institutes of Health (NIH) han publicado un Plan Estratégico para la Ciencia de Datos que proporciona una hoja de ruta para modernizar el ecosistema de ciencia de datos biomédicos financiados por los NIH. Durante el transcurso del próximo año, los NIH comenzarán a implementar su estrategia, con algunos elementos del plan ya en marcha. Los NIH continuarán buscando la opinión de la comunidad interesadas durante la fase de implementación.

Reflejando el panorama actual de la investigación biomédica altamente integrada, El plan estratégico de NIH define la ciencia de datos como «el campo interdisciplinario de investigación en el que los enfoques cuantitativos y analíticos, procesos y se desarrollan y utilizan sistemas para extraer conocimientos y percepciones de la organización de los cada vez más grandes y complejos conjuntos de datos»