Archivo de la etiqueta: Calidad

Rankings ISSUE 2015 Indicadores sintéticos de las universidades españolas

issue-2015-200x222

Pérez, F. and J. Aldás (2016). [e-Book] Rankings ISSUE 2015 Indicadores sintéticos de las universidades españolas. Madrid, Fundación BBVA, 2016

Texto completo

El Proyecto U-Ranking, desarrollado en colaboración por la Fundación BBVA y el Instituto Valenciano de Investigaciones Económicas (Ivie), es una pieza central de un programa de actividades de ambas instituciones dirigido a documentar y analizar el papel del conocimiento en el desarrollo social y económico. Este documento presenta uno de los productos básicos de dicho proyecto, los Rankings ISSUE (Indicadores Sintéticos del Sistema Universitario Español), su metodología y los resultados correspondientes a la edición de 2015, la tercera que se presenta, cuya novedad más relevante es la inclusión por primera vez de universidades privadas. El enfoque de ISSUE, la selección de las variables en las que se basan los rankings elaborados y la metodología seguida en el tratamiento de la información han sido exhaustivamente discutidos por el equipo del Ivie junto a un amplio grupo de expertos en evaluación de universidades, información y gestión universitaria.

grafico_ranking_universidad

Este documento presenta los resultados de la investigación desarrollada por el Ivie para construir la tercera edición de los Indicadores Sintéticos del Sistema Universitario Español (ISSUE), a partir del análisis de las actividades docentes, de investigación y de innovación y desarrollo tecnológico de las universidades. Los indicadores elaborados sirven de base para la elaboración de diversos rankings de las universidades españolas: dos rankings generales —uno de volumen de resultados (ISSUE-V) y otro de productividad (ISSUE-P)— así como otros más específicos: de docencia, de investigación, de innovación y desarrollo tecnológico, y de titulaciones concretas.

Todos estos rankings constituyen aproximaciones a los resultados de las universidades que permiten compararlas desde distintas perspectivas. Mediante esas comparaciones, los indicadores sintéticos permiten evaluar su funcionamiento respondiendo a preguntas relevantes, como las siguientes:

  • ¿Cuáles son las universidades españolas con mayor volumen de resultados?, ¿cuáles son las universidades más productivas o eficientes?, ¿coinciden las mejor situadas en los rankings según cada una de estas dos perspectivas?
  • ¿Responden las posiciones de las universidades españolas en los rankings internacionales a criterios de volumen de actividad, o más bien a criterios de productividad?, ¿están correlacionados los rankings ISSUE con las posiciones de las universidades españolas en los rankings internacionales más conocidos, como el de Shanghai2?
  • ¿Destacan las universidades con mejores resultados de investigación por sus resultados Academic Ranking of World Universities (ARWU) (Clasificación de las universidades del mundo).docentes?, ¿están correlacionados los resultados de investigación con los de innovación y desarrollo tecnológico?
  • ¿Presentan las posiciones de las universidades en los distintos rankings generales la suficiente regularidad como para clasificarlas en grupos homogéneos, o es demasiado variable la situación en unas u otras ordenaciones
    para establecer una tipología? ¿se mantienen estables a lo largo del tiempo las posiciones alcanzadas por las universidades?
  • ¿Son similares los rankings generales correspondientes al conjunto de actividades de una universidad con los que se obtienen cuando se comparan titulaciones concretas?, ¿es elevada la heterogeneidad interna de las
    universidades?

Obtener respuestas para todas estas cuestiones puede ser de mucho interés para construir una visión del sistema universitario español que identifique las fortalezas y debilidades de cada una de las instituciones que lo integran, así como para ordenar la posición dentro del mismo de las universidades. Ese es el propósito de este proyecto y de este informe pues, como se señalaba en un estudio anterior del Ivie, publicado por la Fundación BBVA (Pérez y Serrano [dirs.] 2012), el sistema universitario español ha aumentado mucho su dimensión en las últimas décadas pero dista de ser un conjunto homogéneo. No reconocer su heterogeneidad dificulta su evaluación, a pesar de que esta requiere tener en cuenta la distinta especialización, las cambiantes características de cada universidad y sus posibilidades efectivas de competir en distintos ámbitos.

Censo de bibliotecas públicas: recomendaciones de diseño y aplicación e instrumento modelo

 

censo_bib-290x242

Censo de bibliotecas públicas: recomendaciones de diseño y aplicación e instrumento modelo. [e-Book] Paris, Unesco, Cerlac, 2011.

Texto completo

Con la intención de que los sistemas de bibliotecas públicas de la región iberoamericana cuenten con instrumentos para diagnosticar, reflexionar y actuar sobre la transformación de su realidad, el Centro Regional para el Fomento del Libro en América Latina y el Caribe (cerlalc) presenta este documento con recomendaciones básicas para el diseño y aplicación de censos de bibliotecas públicas, acom-pañado de un cuestionario modelo. El interés fundamental es im-pulsar en Iberoamérica los censos como requisito importante para la planeación de procesos sistemáticos y continuos de mejoramiento de los sistemas de bibliotecas públicas.El presente trabajo se desarrolló durante el año 2010 y el primer se-mestre del 2011 y tuvo como base una indagación preliminar sobre diferentes censos de bibliotecas hechos en la región y la posterior propuesta de ítems para un censo de bibliotecas realizado por la Sub-dirección de Lectura, Escritura y Bibliotecas del cerlalc de acuerdo con el conocimiento de las realidades y necesidades de los sistemas de bibliotecas públicas de Iberoamérica. A partir de este primer paso el cerlalc encargó a la Escuela Iberoamericana de Bibliotecología de la Universidad de Antioquia, una serie de recomendaciones a esta propuesta de ítems en particular, y al diseño de instrumentos para censos de bibliotecas de manera general. Asimismo la Escuela Inte-ramericana de Bibliotecología por solicitud del cerlalc elaboró el cuestionario para el censo, a partir de las recomendaciones del do-cumento de esta universidad, mismo que se presenta al finalizar este documento con su respectivo instructivo de aplicación y glosario.

Mejora de las organizaciones públicas por medio de la autoevaluación.

caf2013200

(2013). [e-Book] Mejora de las organizaciones públicas por medio de la autoevaluación. Madrid, Ministerio de Hacienda y Administraciones Públicas, 2013

Texto completo

El propósito de la autoevaluación es el análisis regular, por las propias organizaciones, de sus procesos y resultados de gestión para identificar los puntos fuertes y las deficiencias y determinar los oportunos planes de mejora. El Marco Común de Evaluación (CAF) es una herramienta de gestión de la calidad total, desarrollada por y para el sector público e inspirada en el Modelo de Excelencia de la Fundación Europea para la Gestión de la Calidad (EFQM). Está basada en la premisa de que los resultados excelentes en el rendimiento de la organización, en los ciudadanos/clientes, en las personas y en la sociedad se alcanzan por medio de un liderazgo que dirija la estrategia y planificación, las personas, las alianzas, los recursos y los procesos. El modelo examina la organización desde distintos ángulos a la vez, con un enfoque holístico del análisis del rendimiento de la organización.

Manifiesto de la IFLA sobre las estadísticas de bibliotecas

37006d1f78a382af9c665654f8162781_xl

 

«Las bibliotecas y los servicios de información sirven a la sociedad mediante la preservación de la memoria, fomentando el desarrollo, lo que permite la educación y la investigación y apoyan la comprensión internacional y el bienestar de la comunidad.»

(Alex Byrne 2005)

«Manifiesto por las estadísticas «= IFLA Library Statistics Manifesto. The hague: IFLA, 2010

Texto completo

Ver además

El modelo de datos y definiciones del proyecto Global statistics for the 21st century

Este documento fue promovido por la entonces Presidenta Claudia Lux en la conferencia de la Sección en Montreal (Agosto de 2008). La idea era la de tener un documento aprobado que hablara de la importancia de las estadísticas bibliotecarias, ya que demuestran el valor que las bibliotecas suponen para sus usuarios y para la sociedad en general. Los datos estadísticos son indispensables para la gestión interna de las bibliotecas pero pueden ser algo más. Cuando se presentan a los responsables de las políticas, a las instituciones que financian las bibliotecas o al público en general, influyen en la planificación estratégica, y pueden crear y mantener la confianza en las bibliotecas. Las estadísticas de bibliotecas: los datos pueden marcar la diferencia

 
Las estadísticas de bibliotecas: los datos pueden marcar la diferencia

Tanto los datos cuantitativos como los cualitativos de los servicios, de su uso y los de los usuarios de la biblioteca son fundamentales para hacer patente y confirmar el valor excepcional que proporcionan las bibliotecas. Ya que el valor informativo de las estadísticas depende de su completitud y rapidez, será necesaria la participación de todas las bibliotecas del país.

Las estadísticas bibliotecarias son necesarias para una gestión eficaz de las bibliotecas, pero aún lo son más para promocionar los servicios de la biblioteca entre los diferentes tipos de actores: los políticos y los financiadores, los administradores de las bibliotecas y el personal, los usuarios potenciales y los reales, los medios de comunicación y el público en general. Las estadísticas que están dirigidas a los responsables de las políticas, gestores y financiadores, son esenciales para decidir sobre niveles de servicio y planificación estratégica para el futuro.

Las estadísticas bibliotecarias pueden hacer visibles una gran cantidad de historias de éxito en las que las bibliotecas han abierto y garantizado el acceso a información relevante para todos los grupos de la población.

Qué es lo que muestran las estadísticas

Midiendo los inputs hacia las bibliotecas (los recursos, edificios, equipamiento, personal y colecciones incluidos), las estadísticas bibliotecarias muestran el compromiso de los políticos y de las autoridades con los servicios bibliotecarios. Contabilizando los outputs, el uso de las colecciones y los servicios bibliotecarios tanto tradicionales como los nuevos servicios de biblioteca electrónica, las bibliotecas muestran la adecuación de sus servicios a las poblaciones respectivas. Al comparar los datos de los inputs y los outputs se demuestra cómo las bibliotecas organizan sus servicios de forma coste‐efectiva.

Los datos sobre el uso y la aceptación de los servicios bibliotecarios pueden indicar también los outcomes de las bibliotecas sobre la población. Cada otucome (en alfabetización, en competencia en búsqueda de información, en el éxito de la educación o en inclusión social) será más evidente si se añaden datos cualitativos procedentes de estudios de usuarios a los resultados estadísticos. Las bibliotecas han asumido nuevas responsabilidades en el cambiante mundo de la información; necesitan nuevas estadísticas para gestionar y promocionar estas nuevas tareas.

La calidad de las estadísticas de bibliotecas

La corrección, la fiabilidad y la comparabilidad de los datos son cruciales a la hora de valorar y utilizar las estadísticas bibliotecarias. La calidad de las estadísticas bibliotecarias a nivel nacional ‐y por ende a nivel internacional‐ depende de la entrega oportuna y exacta de cada una de las bibliotecas y de una edición cuidada para evitar errores y malentendidos. Es necesario utilizar las mismas definiciones y los mismos métodos para que los resultados entre regiones o países sean comparables.

Todas las bibliotecas no dependen de las mismas autoridades. La mayoría sirven a instituciones específicas (universidades o firmas comerciales) o bien a comunidades. Otras instituciones pueden ser responsables de establecer la misión, del funcionamiento o de la regulación legal de las bibliotecas derivada de sus competencias. Por lo tanto, diferentes instituciones y organizaciones con objetivos diversos pueden sentirse responsables de recoger los datos de las bibliotecas que dependen de ellas. La recogida de datos estadísticos se iniciará siempre individualmente en cada biblioteca, pero el objetivo debe ser una recopilación de los datos a nivel regional o nacional. Con esta finalidad, las bibliotecas deben colaborar para formar redes regionales / nacionales para las estadísticas bibliotecarias y así garantizar que el sistema nacional de bibliotecas funciona con eficacia.

El modelo de cuestionario

Dada la variedad de responsabilidades en estadísticas bibliotecarias, es crucial que sea utilizado un modelo uniforme de cuestionario con datos y métodos estandarizados.
Por ello, se ha desarrollado un modelo de cuestionario para bibliotecas públicas y académicas en un proyecto conjunto de IFLA, la UNESCO e ISO, la Organización Internacional de Estandarización. El cuestionario con 23 preguntas está basado en el estándar ISO para estadísticas bibliotecarias y ha sido desarrollado considerando tanto los servicios tradicionales como los servicios de biblioteca electrónica. Unos ensayos en América Latina y el Caribe han demostrado la viabilidad de utilizar el cuestionario para recoger datos bibliotecarios comparables.

El modelo de estadísticas bibliotecarias hace patentes los inputs y los outputs de las bibliotecas y muestra el papel de la biblioteca como punto de acceso a la información, como centro de encuentro y de comunicación, y como lugar para el aprendizaje y la investigación. Se puede obtener más información si los resultados del cuestionario se relacionan con datos socio‐demográficos compilados por la UNESCO y otras entidades internacionales, por ejemplo sobre la situación de la alfabetización, la de la educación o la del acceso a Internet en un país determinado.

Financiación, legislación y redes

Se emplaza a los gobiernos y otros entes con responsabilidades de decisión a establecer y a financiar adecuadamente unidades centrales para la compilación de datos estadísticos nacionales siguiendo el modelo de cuestionario y a apoyar a los entes locales y regionales para recogerlas.

La comunidad internacional debe apoyar a las bibliotecas y a los servicios de información en la compilación y comparación de estadísticas uniformes y fiables sobre sus recursos y servicios y así promover y apoyar el papel de las bibliotecas en la alfabetización informacional, en la educación y en la cultura.

La IFLA y la UNESCO están preparadas para apoyar el desarrollo de sistemas de estadísticas bibliotecarias nacionales, para asegurar que las bibliotecas funcionan eficazmente y para el reconocimiento de la contribución de las bibliotecas a la sociedad del conocimiento. Para obtener datos fiables y mediante la cooperación internacional, serán desarrollados módulos de formación en estadísticas. El objetivo último debe ser por un lado, que individualmente las bibliotecas utilicen estadísticas para una gestión eficaz, y por otro compilar y coordinar datos bibliotecarios a nivel nacional  ‐y finalmente internacional‐  para hacer visible la contribución de las bibliotecas al aprendizaje, a la alfabetización y al desarrollo social, cultural y económico.

Aplicación del Manifiesto

Todos los responsables, sea cual sea su nivel de responsabilidad, y la comunidad bibliotecaria del mundo entero son emplazados a difundir este Manifiesto y a llevar a cabo los principios y acciones expresados en este documento. Aprobado el 18 de mayo de 2010.

Almetrics: métricas alternativas e impacto social de la investigación significado e implicaciones

donutbox

Alonso-Arévalo, J. and Vázquez Vázquez, M. (2016). ¿Qué es y qué implicaciones tiene altmetrics? Desiderata, 1, (2), pp. 23-25. Texto completo

Presentación

Almetrics: métricas alternativas e impacto social de la investigación significado e implicaciones / Julio Alonso Arévalo

Taller Universidad Antonio de Nebrija (Madrid, España) día 6 de mayo de 2016

Los medios sociales están cambiando la forma de interactuar, presentar las ideas e información y juzgar la calidad de los contenidos y contribuciones. En los últimos años han surgido cientos de plataformas que permiten compartir libremente todo tipo de información y conectarnos a través de redes. Estas nuevas herramientas generan estadísticas de actividad e interacciones entre sus usuarios tales como menciones, retweets, conversaciones, comentarios en Blogs o en Facebook; gestores de referencias que muestran índices de popularidad de las referencias más compartidas por otros investigadores o repositorios que generan estadísticas de visitas o descargas de artículos. En este documento se analiza que implicaciones y significado tiene altmetrics, cuáles son sus ventajas y críticas, plataformas (Altmetric.com, ImpactStory, Plos Altmetrics, PlumX), avances y que beneficios reporta para autores, editores y bibliotecarios

Metodologías y mejores prácticas para demostrar el valor de las bibliotecas universitarias

4987123047_c7edd4b141_m

Oakleaf, M. (2016). [e-Book] Value of Academic Libraries Report: A Comprehensive Research Review and Report. Chicago ACRL, 2010.

Texto completo

Una revisión exhaustiva de la literatura cuantitativa y cualitativa, metodologías y mejores prácticas actualmente en vigor para demostrar el valor de las bibliotecas universitarias, desarrollado para ACRL por Megan Hoja de Roble de la iSchool en Siracusa Universidad . El objetivo principal de esta revisión integral es proporcionar a los bibliotecarios universitarios una comprensión más clara de lo que la investigación sobre el rendimiento de las bibliotecas universitarias, donde se producen lagunas en esta investigación, y para identificar las mejores prácticas y medidas correlacionadas con el rendimiento.

Evidencias de como las bibliotecas universitarias contribuyen al aprendizaje y al éxito de los estudiantes

aia-april2016

Association of College and Research Libraries. “Documented Library Contributions to Student Learning and Success: Building Evidence with Team-Based Assessment in Action Campus Projects.” Prepared by Karen Brown with contributions by Kara J. Malenfant. Chicago:Association of College and Research Libraries, 2016

Texto completo

Un nuevo informe publicado por la Asociación de Colegios y Bibliotecas de Investigación (ACRL), “Documented Library Contributions to Student Learning and Success: Building Evidence with Team-Based Assessment in Action Campus Projects.”, muestra con evidencias convincentes las contribuciones de las bibliotecas al aprendizaje y el éxito del estudiante.

El informe se centra en decenas de proyectos llevados a cabo como parte del programa Assessment in Action: Academic Libraries and Student Success (AIA) desarrollado por los equipos que participaron por segundo año consecutivo en el programa entre abril de 2014 y junio de 2015. El documento sintetiza más de 60 informes y proyecto individuales desarrrollados previamente (online). El informe identifica algunas evidencias contundentes de las contribuciones positivas de las bibliotecas universitarias al aprendizaje y el éxito del estudiante en cuatro áreas clave:

  1. Los estudiantes se benefician de la formación de usuarios en su curso inicial. Las iniciativas de alfabetización informacional impartidas a  los estudiantes nuevos estudiantes y estudiantes de primer año ponen de manifiesto que los alumnos que reciben esta instrucción se desenvuelven mejor en sus cursos que los estudiantes que no lo hacen.
  2. El uso de la biblioteca aumenta el éxito del estudiante. Los estudiantes que usan la biblioteca de alguna manera (por ejemplo, préstamos, asistencia a las sesiones de formación de usuarios, acceso a bases de datos en línea, uso de la sala de estudio, préstamo interbibliotecario) alcanzan mayores niveles de éxito académico (mejores calificaciones en los cursos, más capacidad de retención) que los estudiantes que no utilizaron la biblioteca.
  3. Los programas de colaboración académica y servicios relacionados con la biblioteca mejoran el aprendizaje de los estudiantes. las asociaciones entre bibliotecas universitarias con otras unidades del campus, tales como servicio de calidad, investigación, informática, laboratorios rinde beneficios positivos para los estudiantes (por ejemplo, mejores calificaciones, confianza académica, y retención) .
  4. La alfabetización informacional refuerza los resultados educativos generales. Las bibliotecas contribuyen a mejorar los resultados educativos generales de su institución y demuestran que la AI contribuye a la mejor resolución de los problemas en los aspectos relativos a la investigación y el aprendizaje, incluyendo el pensamiento crítico, el razonamiento ético, la comprensión global y el compromiso cívico.

El programa AiA de tres años está ayudando a más de 200 instituciones de educación superior de todo tipo a promover el liderazgo de la biblioteca y la participación en la excelencia de todo el campus. Cada institución participante establece un equipo con un bibliotecario y al menos dos de sus colegas de otras unidades del campus. Los miembros del equipo incluyen con frecuencia profesorado y administradores de otros departamentos como la oficina de evaluación de la calidad académica, investigación institucional, proceso de datos, y atención al estudiante. Durante un período de 14 meses, los bibliotecarios desarrollan e implementan un proyecto que tiene como objetivo contribuir a las actividades de evaluación de la calidad en su institución.

Los hallazgos sobre el impacto de la biblioteca en cada una de las cuatro áreas descritas anteriormente son particularmente importantes, ya que ponen de relieve el valor de la biblioteca como un factor que influye positivamente en el éxito académico de los estudiantes.

Además, hay evidencias del impacto positivo de la biblioteca cinco áreas, a pesar de que no se han estudiado tan extensivamente, y por lo tanto los resultados no pueden no ser tan consistentes:

  • La retención de los estudiantes mejora con servicios de instrucción de la biblioteca.
  • Los servicios de consulta de la biblioteca de investigación impulsan el aprendizaje del estudiante.
  • La formación de usuarios añade valor a la experiencia académica a largo plazo de un estudiante.
  • La biblioteca promueve la relación académica y el compromiso del estudiante.
  • El uso del espacio de la biblioteca se relaciona positivamente con el aprendizaje y el éxito del estudiante.

Además de las conclusiones sobre el impacto de la biblioteca, las reflexiones de los participantes revelan que un enfoque basado en equipos de colaboración en el campus es un elemento esencial de la realización de un proyecto de evaluación y planificación para la acción posterior. Los beneficios de tener miembros de equipos diversos trabajando en conjunto son claros. Logran un entendimiento común acerca de las definiciones y atributos de éxito académico, producen medidas significativas en torno al aprendizaje de los estudiantes, alinean las actividades de evaluación en colaboración con las prioridades institucionales, crean un mensaje de campus unificado sobre el aprendizaje y el éxito del estudiante, y se centran en el cambio transformador y sostenible.

 

 

Manifiesto de Leiden sobre indicadores de investigación

fotoblog9978

Hicks, D., et al. Bibliometrics: The Leiden Manifesto for research metrics: Use these ten principles to guide research evaluation,, Leiden, 2015.

Los datos sobre las actividades científicas están siendo cada vez más utilizados para gobernar la ciencia. Evaluaciones sobre investigación que fueron en su día diseñadas individualmente para su contexto específico y realizadas por pares, son ahora rutinarias y están basadas en métricas.1 El problema es que la evaluación pasó de estar basada en valoraciones de expertos a depender de estas métricas. Los indicadores han proliferado: normalmente bien intencionados, no siempre bien informados, y a menudo mal aplicados. Cuando organizaciones sin conocimiento sobre buenas prácticas e interpretación apropiada de indicadores llevan a cabo las evaluaciones, corremos el riesgo de dañar el sistema científico con los mismos instrumentos diseñados para mejorarlas.

Antes del año 2000, los expertos utilizaban el Science Citation Index del Institute for Scientific Information (ISI), en su versión de CD-ROM para realizar análisis especializados. En el 2002, Thomson Reuters lanzó una plataforma web integrada que hizo accesible a un público amplio la base de datos Web of Science. Luego aparecieron otros índices de citas que se erigieron en competencia de Web of Science: Scopus de Elsevier (2004) y Google Académico (versión beta creada en el 2004). Instrumentos basados en la web fueron luego introducidos, tales como InCites (que usa Web of Science) y SciVal (que usa Scopus) y también software para analizar perfiles individuales de citas basados en Google Académico (Publish or Perish, que apareció el 2007).

En el 2005, Jorge Hirsch, un físico de la Universidad de California en San Diego, propuso el índice-h, que popularizó el recuento de citas de investigadores individuales. El interés en el factor de impacto de las revistas académicas creció incesantemente desde 1995. Recientemente, han aparecido medidas de uso social y de comentarios online: F1000Prime fue establecido en 2002, Mendeley en 2008 y Altmetric.com en 2011.

En tanto que investigadores de cientometría, científicos sociales y gestores de investigación, hemos observado con creciente preocupación un uso incorrecto generalizado de los indicadores en la evaluación del desempeño científico. Los siguientes son algunos de los numerosísimos ejemplos posibles. En todo el mundo, las universidades se han obsesionado con su posición en los rankings globales (tales como el ranking de Shanghai y la lista del Times Higher Education), cuando estas listas están basadas en lo que a nuestro juicio son datos inexactos e indicadores arbitrarios.

Algunas organizaciones piden el índice-h a los candidatos que se presentan a ofertas de empleo. Varias universidades basan la promoción en valores umbral del índice-h y en el número de artículos en revistas de «alto impacto». Los CVs se han convertido en oportunidades de alardear de estas «puntuaciones», en particular en biomedicina. En todas partes, los supervisores piden prematuramente a sus estudiantes de doctorado que publiquen en revistas de alto impacto y consigan financiación externa.

En Escandinavia y China, algunas universidades distribuyen fondos de investigación o bonificaciones sobre la base de un número: por ejemplo, calculando puntaciones individuales de impacto para repartir «recursos de desempeño», o dando a los investigadores una prima por publicaciones en una revistan con un factor de impacto superior a 15.2

Por estas razones, presentamos el Manifiesto de Leiden, que recibe este nombre de la conferencia donde cristalizó. Sus diez principios no son ninguna novedad para expertos en cientometría, pero ninguno de nosotros sería capaz de recitarlos en su totalidad puesto que hasta este momento no habían sido codificados. Celebridades en cientometría, como Eugene Garfield (fundador de ISI), ya han presentado en ocasiones algunos de estos principios,3 pero no pueden estar presentes cuando los evaluadores informan a gestores universitarios que no son expertos en la metodología pertinente. Los científicos que buscan literatura para disputar o impugnar evaluaciones sólo encuentran las informaciones necesarias en lo que son, para ellos, revistas opacas y de difícil acceso.

Ofrecemos esta síntesis de buenas prácticas en evaluación basada en indicadores métricos para que los investigadores puedan pedir cuentas a los evaluadores, y para que los evaluadores puedan pedir cuentas a los indicadores.

DIEZ PRINCIPIOS

1. La evaluación cuantitativa tiene que apoyar la valoración cualitativa por expertos.

Los indicadores pueden corregir la tendencia a perspectivas sesgadas que se dan en revisión por pares y facilitar la deliberación. En este sentido, los indicadores pueden fortalecer la evaluación por pares puesto que tomar decisiones sobre colegas es difícil sin varias fuentes de información. Sin embargo, los evaluadores no deben ceder a la tentación de supeditar las decisiones a los números. Los indicadores no pueden sustituir a los razonamientos informados. Los decisores tienen plena responsabilidad sobre sus evaluaciones.

2. El desempeño debe ser medido de acuerdo con las misiones de investigación de la institución, grupo o investigador.

Los objetivos de un programa de investigación tiene que ser especificados al principio, y los indicadores usados para medir el desempeño tienen que estar claramente relacionados con estos objetivos. La elección y usos de los indicadores tiene que tener en cuenta los contextos socio-económicos y culturales. Los científicos tienen diversas misiones de investigación. La investigación para avanzar las fronteras del conocimiento académico es diferente de la investigación focalizada en proveer soluciones a problemas sociales. La evaluación puede estar basada en méritos relevantes para la industria, el desarrollo de políticas, o para los ciudadanos en general, en vez de méritos basados en nociones académicas de excelencia. No hay un modelo de evaluación que se pueda aplicar en todos los contextos.

3. La excelencia en investigación de relevancia local debe ser protegida.

En muchas partes del mundo, excelencia en investigación se asocia únicamente con publicaciones en inglés. La ley española, por ejemplo, explicita el deseo y la conveniencia que los académicos españoles publiquen en revistas de alto impacto. El factor de impacto se calcula para revistas indexadas por Web of Science, que es una base de datos basada en los Estados Unidos y que contiene una gran mayoría de revistas en inglés. Estos sesgos son especialmente problemáticos en las ciencias sociales y las humanidades, áreas en las que la investigación está más orientada a temas regionales y nacionales. Muchos otros campos científicos tienen una dimensión nacional o regional — por ejemplo, epidemiología del VIH en el África subshariana.

Este pluralismo y la relevancia social tienden a ser suprimidos cuando se crean artículos de interés a los guardianes del alto impacto: las revistas en inglés. Los sociólogos españoles muy citados en Web of Science han trabajado en modelos abstractos o estudiado datos de los Estados Unidos. En ese proceso se pierde la especificidad de los sociólogos con alto impacto en las revistas en castellano: temas como la ley laboral local, atención médica para ancianos o empleo de inmigrantes.4 Indicadores basados en literatura de alta calidad no inglesa servirían para identificar y recompensar la excelencia en investigación localmente relevante.

4. Los procesos de recopilación y análisis de datos deben ser abiertos, transparentes y simples.

La construcción de las bases de datos necesarias para evaluar debe seguir procesos establecidos antes de que la investigación sea completada. Ésta ha sido la práctica común entre los grupos académicos y comerciales que han desarrollado metodologías de evaluación durante varias décadas. Estos grupos publicaron los protocolos de referencia en la literatura revisada por pares. Esta transparencia permite el escrutinio y control de los métodos. Por ejemplo, en 2010, un debate público sobre las propiedades técnicas de un importante indicador utilizado por uno de nuestros grupos (el Centro de Estudios de Ciencia y Tecnología (CWTS) de la Universidad de Leiden, en los Países Bajos), se saldó con una revisión en el cálculo de este indicador.5Las nuevas empresas comerciales en el campo deben responder a los mismos estándards. Nadie tiene porque aceptar evaluaciones automáticas salidas de caja negras o procesos impenetrables. La simplicidad es una virtud en un indicador porque favorece la transparencia. Pero indicadores simplísticos pueden distorsionar la evaluación (veáse el principio 7). Los evaluadores debe esforzarse en encontrar un equilibrio: indicadores simples que sea respetuosos con la complejidad de los procesos de investigación descritos.

5. Los datos y análisis deben estar abiertos a verificación por los evaluados

Con el fin de asegurar la calidad de los datos, los investigadores incluídos en estudios bibliométricos tienen que poder comprobar que sus contribuciones han sido correctamente identificadas. Los responsables y gestores de los procesos de evaluación deben garantizar la exactitud de los datos usados mediante métodos de auto-verificación o auditoría por terceras partes. La universidades podrían implementar este principio en sus sistemas de información. Este debería ser un principio rector en la selección de proveedores de estos sistemas. La compilación y proceso de datos de alta calidad, precisos y rigurosos, lleva tiempo y cuesto dinero. Los responsables deben asignar presupuestos a la altura de estas necesidades de calidad.

6. Las diferencias en las prácticas de publicación y citación entre campos científicos deben tenerse en cuenta.

La mejor práctica en evaluación es proponer una batería de indicadores y dejar que los distintos campos científicos escojan los indicadores que mejor les representan. Hace unos años, un grupo de historiadores recibió una puntuación relativamente baja en una evaluación nacional de pares porque escribían libros en vez de artículos en revistas indexadas por Web of Science. Estos historiadores tuvieron la mala suerte de formar parte del departamento de psicología. La evaluación de historiadoes y científicos sociales requiere la inclusión de libros y literatura en la lengua local; la evaluación de investigadores en informática necesita considerar las contribuciones a conferencias.

La frecuencia de citación varía según los campos: las revistas más citadas en ránkings de matemáticas tienen un factor de impacto alrededor de 3; las revistas más citadas en ránkings de biología celular tienen factors de impactor alrededor de 30.

Por lo tanto, se necesitan indicadores normalizados por campo, y el método más robusto de normalización esta basado en percentiles: cada publicación es ponderada según el percentil al que pertenece en la distribución de citaciones de su campo (por ejemplo, el percentil 1%, 10%, 20% más alto). Una única publicación altamente citada mejora un poco la posición de una universidad en un ranking basado en percentiles, pero puede propulsar la universidad de un lugar medio a la primeras posiciones en un ranking basado en promedios de citas.6

7. La evaluación individual de investigadores debe basarse en la valoración cualitativa de su portafolio de investigación.

El índice-h aumenta con la edad del investigador, aunque éste ya no publique. El índice-h varía por campos: los científicos en las ciencias de la vida pueden llegar a 200; los físicos a 100 y los científicos sociales a 20 o 30.7Es un índice que depende de la base de datos: hay informáticos que tienen un índice-h de 10 en Web of Science, pero de 20 o 30 en Google Scholar.8 Leer y valorar el trabajo de un investigador es mucho más apropiado que confiar en un único número. Incluso cuando se comparan un gran número de científicos, es mejor adoptar un enfoque que considere información diversa sobre cada individuo, incluyendo sus conocimiento, experiencia, actividades e influencia.

8. Debe evitarse la concreción improcedente y la falsa precisión.

Los indicadores de ciencia y tecnología tienden a la ambigüedad conceptual y a la incertidumbre, y se fundamentan en hipótesis que no están universalmente aceptadas. Por esta razón, las buenas prácticas usan múltiple indicadores con el fin de construir un retrato robusto y plural. En la medida que sea posible cuantificarla, información sobre incertidumbre y error debería acompañar la valores de los indicadores publicados, por ejemplo usando barras de error. Si esto no fuera posible, los productores de indicadores deberían al menos evitar ofrecer un falso nivel de precisión. Por ejemplo, el factor de impacto de revistas se publica con tres decimales para evitar empates. Sin embargo, dada la ambigüedad conceptual y la variabilidad aleatoria de las citas, no tiene sentido distinguir entre revistas por pequeñas diferencias en el factor de impacto. Se debe evitar la falsa precisión: sólo un decimal está justicaficado.

9. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores.

Los indicadores cambian el sistema científico a través de los incentivos que establecen. Estos efectos deberían ser anticipados. Esto significa que una batería de indicadores es siempre preferible puesto que un solo indicador es susceptible de generar comportamientos estratégicos y substitución de objetivos (según la cual la medida se convierte en un fin en sí misma). Por ejemplo, en los 1990s, Australia financió investigación en universidades de acuerdo con una fórmula basada sobretodo en el número de publicaciones de un instituto. Las universidades podían calcular el «valor» de una publicación en una revista arbitrada; en el año 2000, el valor se estimó en Aus$800 (US$480) destinados a recursos de investigación. Como era de esperar, el número de artículos publicados por autores australianos subió, pero en revistas menos citadas, lo que sugiere que la calidad de los artículos disminuyó.9

10. Los indicadores deben ser examinados y actualizados periódicamente.

Las funciones de la investigación y los objetivos de la evaluación cambian o se desplazan, y el sistema de investigación co-evoluciona con ellos. Medidas que fueron útiles en su día pasan a ser inadecuadas y nuevos indicadores aparecen. Por lo tanto, los sistemas de indicadores tienen que ser revisados y tal vez modificados. Al darse cuenta de los efectos de su fórmula simplista de evaluación, en 2010 Australia adoptó la iniciativa Excellence in Research for Australia, que es más compleja y pone énfasis en la calidad.

Pasos siguientes

Siendo fiel a estos diez principios, la evaluación de la investigación puede jugar un papel importante en el desarrollo de la ciencia y sus interacciones con la sociedad. Los indicadores de investigación pueden proporcionar información crucial que sería difícil de aglutinar o entender a partir de experiencias individuales. Pero no se debe permitir que la información cuantitativa se convierta en un objetivo en sí misma. Las mejores decisiones se toman combinando estadísticas robustas sensibles a los objetivos y la naturaleza de la investigación evaluada. Tanto la evidencia cuantitativa como la cualitativa son necesarias — cada cual es objetiva a su manera. Decisiones sobre la ciencia tienen que ser tomadas en base a procesos de alta calidad informados por datos de la mayor calidad.

1 Wouters, P. in Beyond Bibliometrics: Harnessing Multidimensional Indicators of Scholarly Impact (eds Cronin, B. & Sugimoto, C.) 47–66 (MIT Press, 2014).

2 Shao, J. & Shen, H. Learned Publishing 24, 95–97 (2011).

3 Seglen, P. O. Br. Med. J. 314, 498–502 (1997). Garfield, E. J. Am. Med. Assoc. 295, 90–93(2006).

4 López Piñeiro, C. & Hicks, D. Res. Eval. 24, 78–89 (2015).

5 van Raan, A. F. J., van Leeuwen, T. N., Visser, M. S., van Eck, N. J. & Waltman, L. J. Informetrics 4, 431–435 (2010).

6 Waltman, L. et al. J. Am. Soc. Inf. Sci. Technol. 63, 2419–2432 (2012).

7 Hirsch, J. E. Proc. Natl Acad. Sci. USA 102, 16569–16572 (2005).

8 Bar-Ilan, J. Scientometrics 74, 257–271 (2007).

9 Butler, L. Res. Policy 32, 143–155 (2003).

La enseñanza y el aprendizaje: El logro de calidad para todos

51vgtxob3rl-_sx382_bo1204203200_

Teachning and Learning : Achieving quality for all. [e-Book]  Paris, UNESCO, 2014.

Texto completo

Este Informe es una publicación independiente encargada por la UNESCO en nombre de la comunidad internacional. Es el producto de un esfuerzo de colaboración entre los miembros del Equipo del Informe y muchas otras personas, organismos, instituciones y gobiernos. Las denominaciones empleadas y la presentación del material en esta publicación no implican la expresión de ninguna opinión por parte de la UNESCO sobre la condición jurídica de países, territorios, ciudades o zonas, o de sus autoridades, ni respecto de la delimitación de sus fronteras o límites.

El Informe de Seguimiento de la EPT de este año subraya claramente el hecho de que las personas de los grupos más marginados no han dejado de dispone de las mismas oportunidades para la educación  que el resto durante la década. No es demasiado tarde, sin embargo, para acelerar el progreso en las etapas finales. Y es vital para poner en marcha un sólido marco global de la educación post-2015 para abordar asuntos pendientes, mientras que frente a nuevos retos.

Aplicaciones moviles en medicina y salud

 

25966614194_f6c3754fa5_o_d

Alonso-Arévalo, Julio. Aplicaciones moviles en medicina y salud. XII Jornadas APDIS, Universidad de Coimbra 20 al 22 de abril 2016

Texto

Resumen: El uso de las tecnologías móviles para apoyar el logro de objetivos de salud (mHealth) tiene el potencial de transformar la prestación de servicios de salud en todo el mundo. Esto incluye los rápidos avances en el ámbito tecnológico y el crecimiento exponencial de las aplicaciones móviles, lo que conlleva nuevas oportunidades para la integración de la salud móvil en los servicios  sanitarios. La calidad de estas apps es muy variable, tanto en contenidos como funcionalidades, muchas de ellas son de dudosa fiabilidad y la mayoría de ellas no están integradas en el sistema sanitario, Este crecimiento desordenado hace necesario establecer mecanismos de regulación que garanticen que estas aplicaciones se utilicen con seguridad. En este documento se analizan los esfuerzos de regulación a nivel internacional, regional y nacional, así como algunas de las aplicaciones más representativas tanto para uso profesional como para pacientes, así como aquellas otras aplicaciones orientadas hacia la prevención y los hábitos saludables.

Descriptores. Aplicaciones, Medicina, Ciencias de la Salud, Movilidad, Calidad, Evaluación, Normalización, mHealth, Tecnologías de la información.