Archivo de la etiqueta: Evaluación

Almetrics: métricas alternativas e impacto social de la investigación significado e implicaciones

donutbox

Alonso-Arévalo, J. and Vázquez Vázquez, M. (2016). ¿Qué es y qué implicaciones tiene altmetrics? Desiderata, 1, (2), pp. 23-25. Texto completo

Presentación

Almetrics: métricas alternativas e impacto social de la investigación significado e implicaciones / Julio Alonso Arévalo

Taller Universidad Antonio de Nebrija (Madrid, España) día 6 de mayo de 2016

Los medios sociales están cambiando la forma de interactuar, presentar las ideas e información y juzgar la calidad de los contenidos y contribuciones. En los últimos años han surgido cientos de plataformas que permiten compartir libremente todo tipo de información y conectarnos a través de redes. Estas nuevas herramientas generan estadísticas de actividad e interacciones entre sus usuarios tales como menciones, retweets, conversaciones, comentarios en Blogs o en Facebook; gestores de referencias que muestran índices de popularidad de las referencias más compartidas por otros investigadores o repositorios que generan estadísticas de visitas o descargas de artículos. En este documento se analiza que implicaciones y significado tiene altmetrics, cuáles son sus ventajas y críticas, plataformas (Altmetric.com, ImpactStory, Plos Altmetrics, PlumX), avances y que beneficios reporta para autores, editores y bibliotecarios

Metodologías y mejores prácticas para demostrar el valor de las bibliotecas universitarias

4987123047_c7edd4b141_m

Oakleaf, M. (2016). [e-Book] Value of Academic Libraries Report: A Comprehensive Research Review and Report. Chicago ACRL, 2010.

Texto completo

Una revisión exhaustiva de la literatura cuantitativa y cualitativa, metodologías y mejores prácticas actualmente en vigor para demostrar el valor de las bibliotecas universitarias, desarrollado para ACRL por Megan Hoja de Roble de la iSchool en Siracusa Universidad . El objetivo principal de esta revisión integral es proporcionar a los bibliotecarios universitarios una comprensión más clara de lo que la investigación sobre el rendimiento de las bibliotecas universitarias, donde se producen lagunas en esta investigación, y para identificar las mejores prácticas y medidas correlacionadas con el rendimiento.

Manifiesto de Leiden sobre indicadores de investigación

fotoblog9978

Hicks, D., et al. Bibliometrics: The Leiden Manifesto for research metrics: Use these ten principles to guide research evaluation,, Leiden, 2015.

Los datos sobre las actividades científicas están siendo cada vez más utilizados para gobernar la ciencia. Evaluaciones sobre investigación que fueron en su día diseñadas individualmente para su contexto específico y realizadas por pares, son ahora rutinarias y están basadas en métricas.1 El problema es que la evaluación pasó de estar basada en valoraciones de expertos a depender de estas métricas. Los indicadores han proliferado: normalmente bien intencionados, no siempre bien informados, y a menudo mal aplicados. Cuando organizaciones sin conocimiento sobre buenas prácticas e interpretación apropiada de indicadores llevan a cabo las evaluaciones, corremos el riesgo de dañar el sistema científico con los mismos instrumentos diseñados para mejorarlas.

Antes del año 2000, los expertos utilizaban el Science Citation Index del Institute for Scientific Information (ISI), en su versión de CD-ROM para realizar análisis especializados. En el 2002, Thomson Reuters lanzó una plataforma web integrada que hizo accesible a un público amplio la base de datos Web of Science. Luego aparecieron otros índices de citas que se erigieron en competencia de Web of Science: Scopus de Elsevier (2004) y Google Académico (versión beta creada en el 2004). Instrumentos basados en la web fueron luego introducidos, tales como InCites (que usa Web of Science) y SciVal (que usa Scopus) y también software para analizar perfiles individuales de citas basados en Google Académico (Publish or Perish, que apareció el 2007).

En el 2005, Jorge Hirsch, un físico de la Universidad de California en San Diego, propuso el índice-h, que popularizó el recuento de citas de investigadores individuales. El interés en el factor de impacto de las revistas académicas creció incesantemente desde 1995. Recientemente, han aparecido medidas de uso social y de comentarios online: F1000Prime fue establecido en 2002, Mendeley en 2008 y Altmetric.com en 2011.

En tanto que investigadores de cientometría, científicos sociales y gestores de investigación, hemos observado con creciente preocupación un uso incorrecto generalizado de los indicadores en la evaluación del desempeño científico. Los siguientes son algunos de los numerosísimos ejemplos posibles. En todo el mundo, las universidades se han obsesionado con su posición en los rankings globales (tales como el ranking de Shanghai y la lista del Times Higher Education), cuando estas listas están basadas en lo que a nuestro juicio son datos inexactos e indicadores arbitrarios.

Algunas organizaciones piden el índice-h a los candidatos que se presentan a ofertas de empleo. Varias universidades basan la promoción en valores umbral del índice-h y en el número de artículos en revistas de «alto impacto». Los CVs se han convertido en oportunidades de alardear de estas «puntuaciones», en particular en biomedicina. En todas partes, los supervisores piden prematuramente a sus estudiantes de doctorado que publiquen en revistas de alto impacto y consigan financiación externa.

En Escandinavia y China, algunas universidades distribuyen fondos de investigación o bonificaciones sobre la base de un número: por ejemplo, calculando puntaciones individuales de impacto para repartir «recursos de desempeño», o dando a los investigadores una prima por publicaciones en una revistan con un factor de impacto superior a 15.2

Por estas razones, presentamos el Manifiesto de Leiden, que recibe este nombre de la conferencia donde cristalizó. Sus diez principios no son ninguna novedad para expertos en cientometría, pero ninguno de nosotros sería capaz de recitarlos en su totalidad puesto que hasta este momento no habían sido codificados. Celebridades en cientometría, como Eugene Garfield (fundador de ISI), ya han presentado en ocasiones algunos de estos principios,3 pero no pueden estar presentes cuando los evaluadores informan a gestores universitarios que no son expertos en la metodología pertinente. Los científicos que buscan literatura para disputar o impugnar evaluaciones sólo encuentran las informaciones necesarias en lo que son, para ellos, revistas opacas y de difícil acceso.

Ofrecemos esta síntesis de buenas prácticas en evaluación basada en indicadores métricos para que los investigadores puedan pedir cuentas a los evaluadores, y para que los evaluadores puedan pedir cuentas a los indicadores.

DIEZ PRINCIPIOS

1. La evaluación cuantitativa tiene que apoyar la valoración cualitativa por expertos.

Los indicadores pueden corregir la tendencia a perspectivas sesgadas que se dan en revisión por pares y facilitar la deliberación. En este sentido, los indicadores pueden fortalecer la evaluación por pares puesto que tomar decisiones sobre colegas es difícil sin varias fuentes de información. Sin embargo, los evaluadores no deben ceder a la tentación de supeditar las decisiones a los números. Los indicadores no pueden sustituir a los razonamientos informados. Los decisores tienen plena responsabilidad sobre sus evaluaciones.

2. El desempeño debe ser medido de acuerdo con las misiones de investigación de la institución, grupo o investigador.

Los objetivos de un programa de investigación tiene que ser especificados al principio, y los indicadores usados para medir el desempeño tienen que estar claramente relacionados con estos objetivos. La elección y usos de los indicadores tiene que tener en cuenta los contextos socio-económicos y culturales. Los científicos tienen diversas misiones de investigación. La investigación para avanzar las fronteras del conocimiento académico es diferente de la investigación focalizada en proveer soluciones a problemas sociales. La evaluación puede estar basada en méritos relevantes para la industria, el desarrollo de políticas, o para los ciudadanos en general, en vez de méritos basados en nociones académicas de excelencia. No hay un modelo de evaluación que se pueda aplicar en todos los contextos.

3. La excelencia en investigación de relevancia local debe ser protegida.

En muchas partes del mundo, excelencia en investigación se asocia únicamente con publicaciones en inglés. La ley española, por ejemplo, explicita el deseo y la conveniencia que los académicos españoles publiquen en revistas de alto impacto. El factor de impacto se calcula para revistas indexadas por Web of Science, que es una base de datos basada en los Estados Unidos y que contiene una gran mayoría de revistas en inglés. Estos sesgos son especialmente problemáticos en las ciencias sociales y las humanidades, áreas en las que la investigación está más orientada a temas regionales y nacionales. Muchos otros campos científicos tienen una dimensión nacional o regional — por ejemplo, epidemiología del VIH en el África subshariana.

Este pluralismo y la relevancia social tienden a ser suprimidos cuando se crean artículos de interés a los guardianes del alto impacto: las revistas en inglés. Los sociólogos españoles muy citados en Web of Science han trabajado en modelos abstractos o estudiado datos de los Estados Unidos. En ese proceso se pierde la especificidad de los sociólogos con alto impacto en las revistas en castellano: temas como la ley laboral local, atención médica para ancianos o empleo de inmigrantes.4 Indicadores basados en literatura de alta calidad no inglesa servirían para identificar y recompensar la excelencia en investigación localmente relevante.

4. Los procesos de recopilación y análisis de datos deben ser abiertos, transparentes y simples.

La construcción de las bases de datos necesarias para evaluar debe seguir procesos establecidos antes de que la investigación sea completada. Ésta ha sido la práctica común entre los grupos académicos y comerciales que han desarrollado metodologías de evaluación durante varias décadas. Estos grupos publicaron los protocolos de referencia en la literatura revisada por pares. Esta transparencia permite el escrutinio y control de los métodos. Por ejemplo, en 2010, un debate público sobre las propiedades técnicas de un importante indicador utilizado por uno de nuestros grupos (el Centro de Estudios de Ciencia y Tecnología (CWTS) de la Universidad de Leiden, en los Países Bajos), se saldó con una revisión en el cálculo de este indicador.5Las nuevas empresas comerciales en el campo deben responder a los mismos estándards. Nadie tiene porque aceptar evaluaciones automáticas salidas de caja negras o procesos impenetrables. La simplicidad es una virtud en un indicador porque favorece la transparencia. Pero indicadores simplísticos pueden distorsionar la evaluación (veáse el principio 7). Los evaluadores debe esforzarse en encontrar un equilibrio: indicadores simples que sea respetuosos con la complejidad de los procesos de investigación descritos.

5. Los datos y análisis deben estar abiertos a verificación por los evaluados

Con el fin de asegurar la calidad de los datos, los investigadores incluídos en estudios bibliométricos tienen que poder comprobar que sus contribuciones han sido correctamente identificadas. Los responsables y gestores de los procesos de evaluación deben garantizar la exactitud de los datos usados mediante métodos de auto-verificación o auditoría por terceras partes. La universidades podrían implementar este principio en sus sistemas de información. Este debería ser un principio rector en la selección de proveedores de estos sistemas. La compilación y proceso de datos de alta calidad, precisos y rigurosos, lleva tiempo y cuesto dinero. Los responsables deben asignar presupuestos a la altura de estas necesidades de calidad.

6. Las diferencias en las prácticas de publicación y citación entre campos científicos deben tenerse en cuenta.

La mejor práctica en evaluación es proponer una batería de indicadores y dejar que los distintos campos científicos escojan los indicadores que mejor les representan. Hace unos años, un grupo de historiadores recibió una puntuación relativamente baja en una evaluación nacional de pares porque escribían libros en vez de artículos en revistas indexadas por Web of Science. Estos historiadores tuvieron la mala suerte de formar parte del departamento de psicología. La evaluación de historiadoes y científicos sociales requiere la inclusión de libros y literatura en la lengua local; la evaluación de investigadores en informática necesita considerar las contribuciones a conferencias.

La frecuencia de citación varía según los campos: las revistas más citadas en ránkings de matemáticas tienen un factor de impacto alrededor de 3; las revistas más citadas en ránkings de biología celular tienen factors de impactor alrededor de 30.

Por lo tanto, se necesitan indicadores normalizados por campo, y el método más robusto de normalización esta basado en percentiles: cada publicación es ponderada según el percentil al que pertenece en la distribución de citaciones de su campo (por ejemplo, el percentil 1%, 10%, 20% más alto). Una única publicación altamente citada mejora un poco la posición de una universidad en un ranking basado en percentiles, pero puede propulsar la universidad de un lugar medio a la primeras posiciones en un ranking basado en promedios de citas.6

7. La evaluación individual de investigadores debe basarse en la valoración cualitativa de su portafolio de investigación.

El índice-h aumenta con la edad del investigador, aunque éste ya no publique. El índice-h varía por campos: los científicos en las ciencias de la vida pueden llegar a 200; los físicos a 100 y los científicos sociales a 20 o 30.7Es un índice que depende de la base de datos: hay informáticos que tienen un índice-h de 10 en Web of Science, pero de 20 o 30 en Google Scholar.8 Leer y valorar el trabajo de un investigador es mucho más apropiado que confiar en un único número. Incluso cuando se comparan un gran número de científicos, es mejor adoptar un enfoque que considere información diversa sobre cada individuo, incluyendo sus conocimiento, experiencia, actividades e influencia.

8. Debe evitarse la concreción improcedente y la falsa precisión.

Los indicadores de ciencia y tecnología tienden a la ambigüedad conceptual y a la incertidumbre, y se fundamentan en hipótesis que no están universalmente aceptadas. Por esta razón, las buenas prácticas usan múltiple indicadores con el fin de construir un retrato robusto y plural. En la medida que sea posible cuantificarla, información sobre incertidumbre y error debería acompañar la valores de los indicadores publicados, por ejemplo usando barras de error. Si esto no fuera posible, los productores de indicadores deberían al menos evitar ofrecer un falso nivel de precisión. Por ejemplo, el factor de impacto de revistas se publica con tres decimales para evitar empates. Sin embargo, dada la ambigüedad conceptual y la variabilidad aleatoria de las citas, no tiene sentido distinguir entre revistas por pequeñas diferencias en el factor de impacto. Se debe evitar la falsa precisión: sólo un decimal está justicaficado.

9. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores.

Los indicadores cambian el sistema científico a través de los incentivos que establecen. Estos efectos deberían ser anticipados. Esto significa que una batería de indicadores es siempre preferible puesto que un solo indicador es susceptible de generar comportamientos estratégicos y substitución de objetivos (según la cual la medida se convierte en un fin en sí misma). Por ejemplo, en los 1990s, Australia financió investigación en universidades de acuerdo con una fórmula basada sobretodo en el número de publicaciones de un instituto. Las universidades podían calcular el «valor» de una publicación en una revista arbitrada; en el año 2000, el valor se estimó en Aus$800 (US$480) destinados a recursos de investigación. Como era de esperar, el número de artículos publicados por autores australianos subió, pero en revistas menos citadas, lo que sugiere que la calidad de los artículos disminuyó.9

10. Los indicadores deben ser examinados y actualizados periódicamente.

Las funciones de la investigación y los objetivos de la evaluación cambian o se desplazan, y el sistema de investigación co-evoluciona con ellos. Medidas que fueron útiles en su día pasan a ser inadecuadas y nuevos indicadores aparecen. Por lo tanto, los sistemas de indicadores tienen que ser revisados y tal vez modificados. Al darse cuenta de los efectos de su fórmula simplista de evaluación, en 2010 Australia adoptó la iniciativa Excellence in Research for Australia, que es más compleja y pone énfasis en la calidad.

Pasos siguientes

Siendo fiel a estos diez principios, la evaluación de la investigación puede jugar un papel importante en el desarrollo de la ciencia y sus interacciones con la sociedad. Los indicadores de investigación pueden proporcionar información crucial que sería difícil de aglutinar o entender a partir de experiencias individuales. Pero no se debe permitir que la información cuantitativa se convierta en un objetivo en sí misma. Las mejores decisiones se toman combinando estadísticas robustas sensibles a los objetivos y la naturaleza de la investigación evaluada. Tanto la evidencia cuantitativa como la cualitativa son necesarias — cada cual es objetiva a su manera. Decisiones sobre la ciencia tienen que ser tomadas en base a procesos de alta calidad informados por datos de la mayor calidad.

1 Wouters, P. in Beyond Bibliometrics: Harnessing Multidimensional Indicators of Scholarly Impact (eds Cronin, B. & Sugimoto, C.) 47–66 (MIT Press, 2014).

2 Shao, J. & Shen, H. Learned Publishing 24, 95–97 (2011).

3 Seglen, P. O. Br. Med. J. 314, 498–502 (1997). Garfield, E. J. Am. Med. Assoc. 295, 90–93(2006).

4 López Piñeiro, C. & Hicks, D. Res. Eval. 24, 78–89 (2015).

5 van Raan, A. F. J., van Leeuwen, T. N., Visser, M. S., van Eck, N. J. & Waltman, L. J. Informetrics 4, 431–435 (2010).

6 Waltman, L. et al. J. Am. Soc. Inf. Sci. Technol. 63, 2419–2432 (2012).

7 Hirsch, J. E. Proc. Natl Acad. Sci. USA 102, 16569–16572 (2005).

8 Bar-Ilan, J. Scientometrics 74, 257–271 (2007).

9 Butler, L. Res. Policy 32, 143–155 (2003).

Cómo crear un perfil en ImpactStory para disponer de datos altmétricos de nuestra investigación

 

https://impactstory.org/

ImpactStory es una herramienta basada en la web de código abierto que ayuda a los investigadores a explorar, dar visibilidad y compartir los diversos impactos de todos los productos de investigación, desde los tradicionales como libros y artículos de revistas, hasta los productos emergentes como blogs, bases de datos, diapositivas (slides)  y software. Es una herramienta altmétrica que además de proporcionar a los investigadores datos de su impacto, está ayudando a construir un nuevo sistema de reconocimiento académico que valora y fomenta la repercusión de la investigación en la web.

ImpactStory fue creado en 2011 por Jason Priem, Heather Piwowar, y está financiado por la Fundación Nacional para la Ciencia y la Fundación Alfred P. Sloan una organización no lucrativa.

Las métricas proporcionadas por ImpactStory pueden ser utilizadas por los investigadores que quieren saber cuántas veces se ha descargado y compartido su trabajo, y también investigar el impacto de la investigación más allá de la consideración de la bibliometría clásica que solamente tenía en cuenta el impacto de las citas de los artículos de revista.

26068344133_43402f1915_z_d

Perfil de ImpactStory

ImpactStory proporciona métricas abiertas en contexto para diversos productos:

Métricas abiertas: ImpactStory sigue las prácticas abiertas con sus datos (en la medida que lo permiten los términos de servicio de los proveedores), código, y gobierno.

Métrica en contexto: Para ayudar investigador en la recogida de datos altmétricos a partir de los perfiles y datos del propio investigador en diversos portales, clasifica las métricas por tipo de contenido y audiencia. Pero también basado en conjuntos de comparación: un evaluador no puede saber si 5 puntos en GitHub es una gran cantidad alta, pero se puede entender inmediatamente si el proyecto está clasificado en el percentil 95 de todos los repositorios de GitHub. Es decir proporciona  sus métricas  en el contexto, de modo que sean significativas para los no expertos

Métricas de productos diversos: Conjuntos de datos, software, diapositivas y otros productos de la investigación se presentan como una sección integrada de un informe global de impacto, junto con el impacto de los artículos en Scopus, cada uno teniendo su propio índice y  clase de impacto.

Lo primero que debes hacer es crear un perfil en el portal ImpactStory. Crear un perfil con ImpactStory es muy sencillo, simplemente debes tener previamente una cuenta en ORCID. De esta manera quedan  vinculados todas la publicaciones y la identidad del investigador en la plataforma, que ORCID sincroniza automáticamente, y de este modo tendremos el nuevo perfil en ImpactStory. (Ver tutorial)

La nueva versión de ImpactStory recopila información de diversas fuentes y canales sociales, dispone de una pestaña titulada Achivements donde podemos ver los logros más importantes de nuestra investigación, por ejemplo, el tanto por ciento de los productos de nuestra investigación que están en acceso abierto, cuales son los mayores éxitos, área temática de mayor impacto, seguidores destacados, así como legibilidad y comprensión de la escritura de nuestra investigación.

OPEN SESAME

Has publicado el 53% de su investigación en lugares de acceso abierto de oro. Este nivel de apertura se corresponde con sólo el 4% de los investigadores.

GREATEST HITS

Su publicación más discutida ha sido mencionada en línea 2 veces. Su mayor éxito es sobre lectura digital

FOWLER FRENZY

Alguien con 3,3 mil seguidores ha twitteado su investigación.

Gracias, @jalonsoarevalo.

 

ALL READERS WELCOME

Su escritura tiene un nivel de lectura fácilmente comprensible en el grado 11 y superiores, sobre la base de sus resúmenes y los títulos. Eso está muy bien – ya que  ayuda a los laicos y profesionales a utilizar su investigación-. También tiene 8% en la legibilidad.

ImpacStory nos proporciona detalles de cada uno de nuestras menciones en redes sociales y otros productos como gestores de referencia, blog y prensa. También cuando alguno de esos editores dispone de datos sobre Altmetric.com nos permite acceder a la ficha de esa investigación en ese producto. Nos permite difundir esta información en canales sociales o enviarla por correo, incrustar la información del impacto en blogs o páginas personales a través de un código HTML.

26068546333_5ab96756d8_z_d

Conexión entre ImpacStory y Altmetric.com

También si lo deseamos podemos eliminar nuestro perfil o resincronizarlo con ORCID.

Evaluación de la Investigación en Humanidades

978-3-319-29016-4

Ochsner, M., S. E. Hug, et al. (eds). [e-Book] Research Assessment in the Humanities: Towards Criteria and Procedures. Zürich, Springer, 2016.

 

Texto completo

PDF 

ePub

:

Este libro analiza un tema importante, la búsqueda de la calidad académica en la investigación en el campo de las humanidades y, en particular, la forma de llegar a un acuerdo sobre la forma de precisar qué y en qué contextos se establece la evaluación de la investigación en esta disciplina. Durante los últimos 20 años, hemos sido testigos, en particular en Europa, de una influencia cada vez mayor de técnicas cuantitativas sobre la medición de rendimiento de la investigación, sobre todo en las ciencias naturales, biomédica e ingeniería. Y aunque se reconoció claramente que estas técnicas cuantitativas bibliométricas tienen menor relevancia en las ciencias sociales, humanidades y derecho (SSH), la presión sobre estos dominios para adaptarse a las prácticas de evaluación de la investigación de carácter cuantitativo, tal como se aplica en el medio natural, ciencias de la vida, ciencias biomédicas y la ingeniería, creció en forma sostenida. Y si bien algunas de estas técnicas que pueden funcionar en algunas especialidades de las ciencias sociales, en las que la revista se ha convertido en el estándar de la materia, es evidente que no es aplicable en la mayoría de las otras especialidades de las ciencias sociales, casi la totalidad de las humanidades y el derecho.

Herramientas y sitios utilizados para la medición del impacto científico

 

assessment-segment

Se muestran los resultados provisionales sobre el uso de herramientas y sitios para la medición de la investigación científica de la encuesta “Survey of scholarly communication tool usage” llevada a cabo por Bianca Kramer y Jeroen Bosman de la Universidad de Utrecht entre octubre de 2015 y febrero de 2016. La encuesta forma parte de un esfuerzo continuo para analizar el panorama cambiante de la comunicación científica.

En el apartado relativo a las herramientas y sitios web utilizados para la medición del impacto científico por parte de investigadores y bibliotecarios se formulo la pregunta ¿Cuales son las herramientas que utiliza para medir el impacto? Ofreciéndose la opción de elegir entre siete herramientas JCR, Altmetric.com, Scopus, ImpactStory, PLos ALM, Web of Science, Harzing.com y otras, tal como se ve en la figura.

101-innovations-survey-impact

En la encuesta participaron estudiantes de doctorado, investigadores postdoctorales, profesores y bibliotecarios. Aclarar que en el caso de los bibliotecarios, cuya labor es de apoyo a la investigación (en lugar de llevar a cabo la investigación activamente  ellos mismos) se les pide que indiquen qué herramientas que  recomiendan. Lo que significa que las respuestas de  los bibliotecarios indican promoción, en lugar de uso activo.

Entre los investigadores, las herramientas tradicionales como el JCR (factor de impacto), Web of Science y Scopus son utilizadas con más frecuencia que las herramientas altmétricas (altmetrics, ImpactStory y PLOS). Los bibliotecarios, sin embargo, seleccionaron las herramientas altmétricas en la misma medida que las herramientas de métricas tradicionales. El hecho de que los bibliotecarios recomienden mucho más a menudo herramientas altmétricas, tales como Altmetric.com y ImpactStory, en comparación con los investigadores, podría reflejar un mayor conocimiento o un mayor entusiasmo respecto al potencial de estas herramientas.

impact-percentage-respondents

Herramientas de medición científica utilizadas por investigadores y bibliotecarios

Quizás lo más sorprendente de estos resultados preliminares es que indican una proporción relativamente grande de herramientas altmétricas mencionadas por los investigadores de Arte y Humanidades en comparación con las otras disciplinas, Por una parte debe de tenerse en cuenta que el tamaño de la muestra es relativamente pequeño, por otra está la hipótesis de que estos resultados tienen que ver con que tradicionalmente la representación y uso de bases de datos de citas como Scopus y Web of Science por parte de los investigadores de Artes y Humanidades es muy limitada debido a la cobertura de estas bases de datos y la ausencia de las humanidades en JCR, por lo que tal vez están más abiertos a las oportunidades que ofrecen las herramientas altmétricas para medir el impacto de los resultados de sus investigaciones en este área de conocimiento.

impact-altmetrics-share

Preferencias por áreas de conocimiento

Además de las herramientas propuestas previamente por la encuesta se daba la posibilidad de incluir otras herramientas a través de una pregunta abierta, aquí se mencionó fundamentalmente Google Académico,  ResearchGate.

Los datos de esta encuesta están disponibles en Figshare:
http://dx.doi.org/10.6084/m9.figshare.1572175

Aplicaciones moviles en medicina y salud

 

25966614194_f6c3754fa5_o_d

Alonso-Arévalo, Julio. Aplicaciones moviles en medicina y salud. XII Jornadas APDIS, Universidad de Coimbra 20 al 22 de abril 2016

Texto

Resumen: El uso de las tecnologías móviles para apoyar el logro de objetivos de salud (mHealth) tiene el potencial de transformar la prestación de servicios de salud en todo el mundo. Esto incluye los rápidos avances en el ámbito tecnológico y el crecimiento exponencial de las aplicaciones móviles, lo que conlleva nuevas oportunidades para la integración de la salud móvil en los servicios  sanitarios. La calidad de estas apps es muy variable, tanto en contenidos como funcionalidades, muchas de ellas son de dudosa fiabilidad y la mayoría de ellas no están integradas en el sistema sanitario, Este crecimiento desordenado hace necesario establecer mecanismos de regulación que garanticen que estas aplicaciones se utilicen con seguridad. En este documento se analizan los esfuerzos de regulación a nivel internacional, regional y nacional, así como algunas de las aplicaciones más representativas tanto para uso profesional como para pacientes, así como aquellas otras aplicaciones orientadas hacia la prevención y los hábitos saludables.

Descriptores. Aplicaciones, Medicina, Ciencias de la Salud, Movilidad, Calidad, Evaluación, Normalización, mHealth, Tecnologías de la información.

 

 

 

Pautas para la calidad de los repositorios de Recursos Educativos Abiertos (REA)

 

26410404222_376f45766f_o_d

Clements, K. (2016). [e-Book] Why Open Educational Resources Repositories Fail? The Contribution of Quality Approaches to the Success of Repositories. Jyväskylä University of Jyväskylä, 2016

Texto completo

Durante las dos últimas décadas, millones de Recursos Educativos Abiertos (REA) están a libre disposición para los profesores y estudiantes en línea. Estos recursos son generalmente accesibles a través Repositorios de Objetos de Aprendizaje (LORS), que son bases de datos con una interfaz de usuario. Los Repositorios de Objetos de Aprendizaje rara vez se utilizan en todo su potencial y, a menudo se considerados como «fracasos». Estudios anteriores han demostrado que la calidad tiene un papel crítico en el éxito de los sistemas de información, tales como LORS. Sin embargo no existen pautas comunes para la garantía de calidad para los enfoques LORS, ni existen estudios sobre la contribución de los diferentes enfoques de aseguramiento de la calidad LOR para el éxito de un repositorio. La medición de la calidad y el éxito han demostrado ser un desafío en la comunidad de investigación debido a la naturaleza subjetiva y dinámica de tales conceptos. Para hacer frente a este reto, esta tesis estudia la percepción de los usuarios y desarrolladores con LOR desde mútiples perspectivas metodológicas. La aportación de esta tesis al discurso académico se debe a su profundización de la comprensión de las percepciones de los usuarios y desarrolladores de LORS sobre la calidad y el éxito de los repositorios. para ello se desarrollaron marcos para enfoques de garantía de calidad y medidas de éxito de Repositorios de Objetos de Aprendizaje con el fin de identificar y enfoques de diseño que aumentarían el éxito  de los repositorios, como un aporte teórico. Los resultados de estos estudios muestran que opiniones de los expertos en combinación con los enfoques de calidad generados por los usuarios (por ejemplo, sistemas de recomendación revisiones por pares, comentando, etiquetado, etc.) contribuyen al éxito del repositorio.El aporte práctico de esta tesis es un conjunto de recomendaciones hacia el diseño de estrategias de calidad de los Repositorios de Objetos de Aprendizaje. Estas recomendaciones ya han sido utilizados como directrices para la creación de aseguramiento de la calidad para los cuatro principales enfoques LORS europeos.

+

¿Qué es y qué implicaciones tiene altmetrics?

 

altmetrics-ris

Alonso-Arévalo, J. and Vázquez Vázquez, M. (2016). ¿Qué es y qué implicaciones tiene altmetrics? Desiderata, 1, (2), pp. 23-25.

Texto completo

El uso de los medios sociales de manera generalizada entre todos los tipos de usuarios, incluidos los investigadores está cambiando la forma de interactuar, presentar las ideas e información y juzgar la calidad de los contenidos y contribuciones. Por ello es factible preguntarse si pueden los datos de las menciones a una investigación realizadas en los medios sociales proporcionar indicadores del impacto de la misma más allá del contexto académico. Altmetrics (también conocido como métricas alternativas o altmetrics) tiene una historia relativamente corta como campo de estudio, que se remonta al año 2010, cuando apareció el Manifiesto Altmetrics (Priem, Taraborelli y Groth 2010). El término en sí se utiliza para describir las fuentes de datos emergentes o nuevas para las métricas de nivel de artículo, es decir las veces que una investigación ha sido mencionada en twitter, Facebook, en blog, prensa, número de descargas en repositorios o las veces que se ha compartido en un gestor de referencias como Mendeley. Existen ya algunas plataformas tales como Altmetric.com, PlumX o ImpactStory.org que recopilan datos de las interacciones sobre los productos de investigación que se producen en redes sociales, blogs y repositorios. Fuentes todas ellas de importancia capital cuando se trata de evaluar la actividad de autores e investigadores de artículos a nivel de métricas (Altmetrics), en redes sociales generales o académicas.

 

HowOpenIsIt? Una guía para la evaluación de revistas de acceso abierto

 

b0z9maociaad1ys

 HowOpenIsIt? Una guía para la evaluación de revistas de acceso abierto,  [e-Book] HowOpenIsIt, 2013.

Texto completo

El acceso abierto es un medio de difusión de las investigaciones científicas que rompe con el modelo tradicional de suscripción a las publicaciones académicas. Tiene el potencial de acelerar enormemente el ritmo de los descubrimientos científicos, fomentar la innovación y enriquecer la educación mediante la disminución de las barreras al acceso. El acceso abierto transfiere los costos de publicación para que los lectores, profesionales e investigadores obtengan contenidos sin costo. Sin embargo, el acceso abierto no es tan simple como «artículos gratis para todos los lectores». El acceso abierto abarca una variedad de componentes como los lectores, reutilización, copyright, contabilización y legibilidad en máquinas. Dentro de estas áreas, las editoriales y las agencias de financiamiento han adoptado distintas políticas, algunas de las cuales son más abiertas que otras. En general, en la medida en que las políticas de una publicación codifiquen una disponibilidad y reutilización inmediatas con las menores restricciones posibles, más abierta será la publicación. En 2002, la Iniciativa de Acceso Abierto de Budapest estableció los principios del acceso abierto por primera vez. Desde entonces, miles de publicaciones han adoptado políticas que contemplan algunos o todos de los componentes principales del acceso abierto relacionados a: lectores, reutilización, copyright, contabilización y legibilidad en máquinas. Sin embargo, no todo el acceso abierto se crea de igual forma. Por ejemplo, una política que permite que cualquiera lea un artículo gratis por seis meses después de su publicación es más abierta que una política que establece un embargo a los 12 meses; pero es menos abierta que una política que permite la lectura gratuita inmediatamente después de su publicación. Esta guia le ayudará a ir más allá de la pregunta aparentemente simple, «¿esta publicación es de acceso abierto?»y hacia una alternativa más productiva, «HowOpenlslt?»