Archivo de la categoría: Investigación

Impacto del Acceso Abierto

oa_benefits

El acceso abierto es un instrumento fundamental para mejorar la circulación del conocimiento y, con ella, la innovación. Son varios los países y distintas las disciplinas donde el número de artículos a los que puede accederse hoy gratuitamente supera el 50 %. El informe “Proportion of Open Access Peer-reviewed Papers at European and World Levels, 2004-2011”, un estudio europeo cuyo objetivo era cuantificar la proporción de los artículos revisados disponibles en acceso abierto tomando un área geográfica correspondiente a Europa, Brasil, Canadá, Japón y Estados Unidos, estimó que en 2011 el 40% de los artículos peer review estaban en acceso abierto (Archambault et al. 2013; Gargiulo 2013).

26594111650_426bd08539_o_d

La libre disponibilidad de la mayor parte de los artículos es ya una realidad en el campo de la ciencia y la tecnología en general, en el de la investigación biomédica, en el de la biología y en el de las matemáticas y la estadística. Por el contrario, los campos en los que el acceso abierto sigue estando más restringido son el de las ciencias sociales y humanidades y el de las ciencias aplicadas, la ingeniería y la tecnología.(Archambault, Amyot, Deschamps, Nicol, Rebout and Roberge 2013) Pues existen distintas formas de comportamiento de los autores en diferentes disciplinas científicas, en Ciencias prácticamente el total de los autores deposita el preprint en Arxiv, el repositorio de la ciencia creado hace 20 años por Paul Gimsparg en los Álamos, hoy en Standford. Esto forma parte de la dinámica de trabajo de esta área que requiere de la rápida difusión de los resultados, ya que de otro modo otro investigador puede adelantarse en su publicación. Por ello lo que encontramos en este repositorio son preprints, y no postprint como ocurre en las Ciencias Sociales y Humanides, que se deposita el artículo una vez publicado.

Generalmente los estudios evalúan la correlación entre las cifras de citación y de descargas. Se parte de la hipótesis de que los artículos con un menor número de descargas también acumulan menos citas. Los resultados difieren de una base de datos a otra. Sí existe una cierta correlación entre citas y descargas, pero éstas dependen de la disciplina o tipo de documento. En conclusión se puede decir que las descargas no son un sustituto universal de las cifras de citación, si bien el acceso abierto generalmente parece que conlleva una determinada ventaja competitiva (Nieder et al. 2013). En el cuadro que vemos a continuación (Archambault et al..Op. Cit) se establece una puntuación superior a 1 que indica que las publicaciones en OA son más citadas que en el ámbito general, mientras que una puntuación por debajo de 1 significa que estas publicaciones se citan con menos frecuencia. Por ejemplo, los trabajos sobre Agricultura, Pesca y Silvicultura reciben más o menos el mismo nivel de la cita (1.06) en OA que si sólo estuvieran en cualquiera revista. Por lo general prácticamente en todas las áreas de conocimiento se deriva una ventaja de citación OA, y paradójicamente, en muchos de los campos en los que la proporción de artículos OA es baja reciben una ventaja competitiva de cita considerable, como en la filosofía y teología (1,54), humanidades artes en general y ciencias sociales, los estudios de comunicación, ingeniería y artes visuales y escénicas. Esto responde a una lógica, ya que cuanto más artículos esté en Acceso Abierto en una disciplina menos se beneficiaran que aquellas disciplinas que tienen todo en OA, ya que al haber menos, los pocos que hay se citan mucho más. Pues si el 100% de los artículos estuvieran en abierto el OA no tendría ninguna ventaja competitiva.

26773323582_c56a1ae970_o_d

Hay que matizar que las estadísticas sobre las revistas de la ruta dorada (revista OA) requieren una cuidadosa interpretación, ya que muchas de ellas son más jóvenes y pequeñas, y estos factores tienen un efecto negativo sobre la tasa de citas y por lo tanto indican negativamente en los valores medidos de cita, pues los investigadores prefieren leer y citar con más frecuencia revistas establecidas, por lo que es un reto para una revista joven es tener autores y artículos de alta calidad, pues se necesita tiempo para obtener una reputación y atraer a investigadores consagrados. Si bien, la mayoría de estos estudios se hacen en relación a las citas recibidas en ISI Web of Science, donde las citas que se recogen son las de las propias revistas incluidas en este índice, y no las citas provenientes de otras revistas no incluidas en ISI. Por ello si consultamos diferentes índices como Scopus, que tiene una mayor representación de revistas de otros ámbitos geográficos o lingüísticos, o mismamente el índice Google Schoolar que se beneficia de la sinergia del propio buscador, veremos que el impacto es mucho mayor, y un factor fundamental para ganar visibilidad es que este motor de búsqueda indexe una investigación como una publicación académica.

Posteriormente a estas reflexiones, considera que lo que está obstaculizando llegar a la situación óptima, es decir al 100% de los artículos en acceso abierto, son una serie de obstáculos puramente psicológicos que bautiza como “Parálisis de Zeno”. Aunque según Harnad cada fobia que está limitando al investigador a depositar en abierto es falsa, ya que se basa en malentendidos, y según el autor, un estudio de los síntomas, analizando cada fobia en si mismo será la única manera rápida y segura a liberarse de este círculo paralizador por medio del mandato de autoarchivo OA, como ya algunas instituciones realizan con éxito.

Para Harnad hay muchas razones para que persista la inercia de la comunidad de investigación, y prácticamente todas ellas comienzan inexplicablemente con la letra “P”, que también es la primera letra de la palabra “parálisis”. En el libro de Svevo, Zeno su protagonista se plantea lo siguiente:

“¿Cómo voy a caminar por la habitación? No tengo tiempo suficiente! Antes de que pueda hacer el camino a través de la habitación, primero tengo que conseguir hacer mitad de camino a través del cuarto, y eso lleva tiempo, pero antes de que pueda conseguir llegar a mitad de camino, tengo que llegar a la mitad de la mitad del camino a través del cuarto, y así sucesivamente Así que no es el momento ni siquiera de empezar;. por lo tanto, posiblemente nunca pueda caminar por la habitación “.

Italo Svevo “La conciencia de Zeno”

La solución pragmática a la paradoja de Zeno es, por supuesto, sólo seguir adelante y dejar que sus piernas decidan y hagan el trabajo por si mismo. La cura para la parálisis de Zeno es la misma, empezar a caminar… hacer las pocas cosas necesarias para poder disponer de todos los artículos en Acceso Abierto. Para pasar A analizar las veinte P de Parálisis, que impiden que el 100% de loso artículos estén en abierto cada uno con sus soluciones y falsas ideas:

1. Permiso / Piratería : ” ¿Cómo voy a autoarchivar si es ilegal! “ 2. Prestigio : “¿Para qué voy a autoarchivar? !Carece del prestigio!” 3. Peer-Review : “¿Cómo es posible que los artículos de acceso abierto no estén revisados por pares?” 4. Promoción : “¿Para que voy a autoarchivar? si no va a contar para los sistemas de acreditación investigadora! ” 5. Preservación: “¿Para qué voy a autoarchivar si no va a perdurar para siempre, como el papel?” 6. Prioridad : “¿Cómo voy a perder tiempo en autoarchivar puedo perder prioridad para mi trabajo! “ 7. Plagio / Propiedad : “¿Para qué voy a autoarchivar?, ! Mi trabajo podría ser plagiado! “ 8. Privacidad / Patentes : “ ¿Para qué voy a autoarchivar?, !Mis ideas podrían ser robadas! “ 9. Paranoia : “¿Para qué voy a autoarchivar?, !Si a mi institución le gusta poseer el controlar mi trabajo! “ 10. Proliferación : “¿Para qué voy a autoarchivar?, ! Los usuarios no van a saber cuál es la versión auténtica!” 11. Paper-Glut (Superabundancia): : “¿Por qué habría de autoarchivar? Ya es bastante difíciles de encontrar el artículo para que esté en dos sitios!” 12. Precios : ” ¿Por qué debería autoarchivar? Todo lo que necesitamos es que las revistas tengan un precio adecuado “ 13. Pretty-Sitting : “¿Por qué debería autoarchivar? !Ya dispongo de acceso a todo lo que necesito! “ 14. Papyrofilia / Imprimir / PDF : ” ¿Por qué debería autoarchivar? Lo que necesitamos es artículos impresos! “ 15. Publishing’s Future: (Futuro de la publicación): ” ¿Por qué debería autoarchivar? Lo que necesitamos son revistas OA! “ 16. Publishers’ Future: (Futuro de los editores): ” ¿Cómo es posible autoarchivar? Perjudicaré a mi editor! “ 17. Professional Societies’ Future (Futuro de la sasociaciones profesionales) : ” ¿Para qué voy a autoarchivar? Se arruinará mi Sociedad Científica “ 18. Professional Future of Librarians (Futuro Profesional de Bibliotecarios) : ”¿Para qué voy a autoarchivar? Dejaré a los bibliotecarios sin trabajo!“ 19. Prioridades / Transpiración: “ ”¿Para qué voy a autoarchivar? !El auto-archivo es demasiado complicado y requiere mucho tiempo y no dispongo de tiempo para ello! “ Transcurridos 8 años de esta publicación y con datos de ROARMAP (Registry of Open Access Repository Material Archiving Policies) en 2014 más de 350 instituciones tienen algún tipo de mandato de autoarchivo.

Ver completo: Alonso-Arévalo, Julio Alfabetización en Comunicación Científica: Acreditación, OA, redes sociales, altmetrics, bibliotecarios incrustados y gestión de la identidad digital., 2014 . In Alfabetización informacional: Reflexiones y Experiencias, Lima (Perú) , Lima-Perú, 20 Y 21 de marzo del 2014.

Además Monográfico sobre

Literatura sobre  el Impacto del Acceso Abierto

Almetrics: métricas alternativas e impacto social de la investigación significado e implicaciones

donutbox

Alonso-Arévalo, J. and Vázquez Vázquez, M. (2016). ¿Qué es y qué implicaciones tiene altmetrics? Desiderata, 1, (2), pp. 23-25. Texto completo

Presentación

Almetrics: métricas alternativas e impacto social de la investigación significado e implicaciones / Julio Alonso Arévalo

Taller Universidad Antonio de Nebrija (Madrid, España) día 6 de mayo de 2016

Los medios sociales están cambiando la forma de interactuar, presentar las ideas e información y juzgar la calidad de los contenidos y contribuciones. En los últimos años han surgido cientos de plataformas que permiten compartir libremente todo tipo de información y conectarnos a través de redes. Estas nuevas herramientas generan estadísticas de actividad e interacciones entre sus usuarios tales como menciones, retweets, conversaciones, comentarios en Blogs o en Facebook; gestores de referencias que muestran índices de popularidad de las referencias más compartidas por otros investigadores o repositorios que generan estadísticas de visitas o descargas de artículos. En este documento se analiza que implicaciones y significado tiene altmetrics, cuáles son sus ventajas y críticas, plataformas (Altmetric.com, ImpactStory, Plos Altmetrics, PlumX), avances y que beneficios reporta para autores, editores y bibliotecarios

Evidencias de como las bibliotecas universitarias contribuyen al aprendizaje y al éxito de los estudiantes

aia-april2016

Association of College and Research Libraries. “Documented Library Contributions to Student Learning and Success: Building Evidence with Team-Based Assessment in Action Campus Projects.” Prepared by Karen Brown with contributions by Kara J. Malenfant. Chicago:Association of College and Research Libraries, 2016

Texto completo

Un nuevo informe publicado por la Asociación de Colegios y Bibliotecas de Investigación (ACRL), “Documented Library Contributions to Student Learning and Success: Building Evidence with Team-Based Assessment in Action Campus Projects.”, muestra con evidencias convincentes las contribuciones de las bibliotecas al aprendizaje y el éxito del estudiante.

El informe se centra en decenas de proyectos llevados a cabo como parte del programa Assessment in Action: Academic Libraries and Student Success (AIA) desarrollado por los equipos que participaron por segundo año consecutivo en el programa entre abril de 2014 y junio de 2015. El documento sintetiza más de 60 informes y proyecto individuales desarrrollados previamente (online). El informe identifica algunas evidencias contundentes de las contribuciones positivas de las bibliotecas universitarias al aprendizaje y el éxito del estudiante en cuatro áreas clave:

  1. Los estudiantes se benefician de la formación de usuarios en su curso inicial. Las iniciativas de alfabetización informacional impartidas a  los estudiantes nuevos estudiantes y estudiantes de primer año ponen de manifiesto que los alumnos que reciben esta instrucción se desenvuelven mejor en sus cursos que los estudiantes que no lo hacen.
  2. El uso de la biblioteca aumenta el éxito del estudiante. Los estudiantes que usan la biblioteca de alguna manera (por ejemplo, préstamos, asistencia a las sesiones de formación de usuarios, acceso a bases de datos en línea, uso de la sala de estudio, préstamo interbibliotecario) alcanzan mayores niveles de éxito académico (mejores calificaciones en los cursos, más capacidad de retención) que los estudiantes que no utilizaron la biblioteca.
  3. Los programas de colaboración académica y servicios relacionados con la biblioteca mejoran el aprendizaje de los estudiantes. las asociaciones entre bibliotecas universitarias con otras unidades del campus, tales como servicio de calidad, investigación, informática, laboratorios rinde beneficios positivos para los estudiantes (por ejemplo, mejores calificaciones, confianza académica, y retención) .
  4. La alfabetización informacional refuerza los resultados educativos generales. Las bibliotecas contribuyen a mejorar los resultados educativos generales de su institución y demuestran que la AI contribuye a la mejor resolución de los problemas en los aspectos relativos a la investigación y el aprendizaje, incluyendo el pensamiento crítico, el razonamiento ético, la comprensión global y el compromiso cívico.

El programa AiA de tres años está ayudando a más de 200 instituciones de educación superior de todo tipo a promover el liderazgo de la biblioteca y la participación en la excelencia de todo el campus. Cada institución participante establece un equipo con un bibliotecario y al menos dos de sus colegas de otras unidades del campus. Los miembros del equipo incluyen con frecuencia profesorado y administradores de otros departamentos como la oficina de evaluación de la calidad académica, investigación institucional, proceso de datos, y atención al estudiante. Durante un período de 14 meses, los bibliotecarios desarrollan e implementan un proyecto que tiene como objetivo contribuir a las actividades de evaluación de la calidad en su institución.

Los hallazgos sobre el impacto de la biblioteca en cada una de las cuatro áreas descritas anteriormente son particularmente importantes, ya que ponen de relieve el valor de la biblioteca como un factor que influye positivamente en el éxito académico de los estudiantes.

Además, hay evidencias del impacto positivo de la biblioteca cinco áreas, a pesar de que no se han estudiado tan extensivamente, y por lo tanto los resultados no pueden no ser tan consistentes:

  • La retención de los estudiantes mejora con servicios de instrucción de la biblioteca.
  • Los servicios de consulta de la biblioteca de investigación impulsan el aprendizaje del estudiante.
  • La formación de usuarios añade valor a la experiencia académica a largo plazo de un estudiante.
  • La biblioteca promueve la relación académica y el compromiso del estudiante.
  • El uso del espacio de la biblioteca se relaciona positivamente con el aprendizaje y el éxito del estudiante.

Además de las conclusiones sobre el impacto de la biblioteca, las reflexiones de los participantes revelan que un enfoque basado en equipos de colaboración en el campus es un elemento esencial de la realización de un proyecto de evaluación y planificación para la acción posterior. Los beneficios de tener miembros de equipos diversos trabajando en conjunto son claros. Logran un entendimiento común acerca de las definiciones y atributos de éxito académico, producen medidas significativas en torno al aprendizaje de los estudiantes, alinean las actividades de evaluación en colaboración con las prioridades institucionales, crean un mensaje de campus unificado sobre el aprendizaje y el éxito del estudiante, y se centran en el cambio transformador y sostenible.

 

 

Manifiesto de Leiden sobre indicadores de investigación

fotoblog9978

Hicks, D., et al. Bibliometrics: The Leiden Manifesto for research metrics: Use these ten principles to guide research evaluation,, Leiden, 2015.

Los datos sobre las actividades científicas están siendo cada vez más utilizados para gobernar la ciencia. Evaluaciones sobre investigación que fueron en su día diseñadas individualmente para su contexto específico y realizadas por pares, son ahora rutinarias y están basadas en métricas.1 El problema es que la evaluación pasó de estar basada en valoraciones de expertos a depender de estas métricas. Los indicadores han proliferado: normalmente bien intencionados, no siempre bien informados, y a menudo mal aplicados. Cuando organizaciones sin conocimiento sobre buenas prácticas e interpretación apropiada de indicadores llevan a cabo las evaluaciones, corremos el riesgo de dañar el sistema científico con los mismos instrumentos diseñados para mejorarlas.

Antes del año 2000, los expertos utilizaban el Science Citation Index del Institute for Scientific Information (ISI), en su versión de CD-ROM para realizar análisis especializados. En el 2002, Thomson Reuters lanzó una plataforma web integrada que hizo accesible a un público amplio la base de datos Web of Science. Luego aparecieron otros índices de citas que se erigieron en competencia de Web of Science: Scopus de Elsevier (2004) y Google Académico (versión beta creada en el 2004). Instrumentos basados en la web fueron luego introducidos, tales como InCites (que usa Web of Science) y SciVal (que usa Scopus) y también software para analizar perfiles individuales de citas basados en Google Académico (Publish or Perish, que apareció el 2007).

En el 2005, Jorge Hirsch, un físico de la Universidad de California en San Diego, propuso el índice-h, que popularizó el recuento de citas de investigadores individuales. El interés en el factor de impacto de las revistas académicas creció incesantemente desde 1995. Recientemente, han aparecido medidas de uso social y de comentarios online: F1000Prime fue establecido en 2002, Mendeley en 2008 y Altmetric.com en 2011.

En tanto que investigadores de cientometría, científicos sociales y gestores de investigación, hemos observado con creciente preocupación un uso incorrecto generalizado de los indicadores en la evaluación del desempeño científico. Los siguientes son algunos de los numerosísimos ejemplos posibles. En todo el mundo, las universidades se han obsesionado con su posición en los rankings globales (tales como el ranking de Shanghai y la lista del Times Higher Education), cuando estas listas están basadas en lo que a nuestro juicio son datos inexactos e indicadores arbitrarios.

Algunas organizaciones piden el índice-h a los candidatos que se presentan a ofertas de empleo. Varias universidades basan la promoción en valores umbral del índice-h y en el número de artículos en revistas de «alto impacto». Los CVs se han convertido en oportunidades de alardear de estas «puntuaciones», en particular en biomedicina. En todas partes, los supervisores piden prematuramente a sus estudiantes de doctorado que publiquen en revistas de alto impacto y consigan financiación externa.

En Escandinavia y China, algunas universidades distribuyen fondos de investigación o bonificaciones sobre la base de un número: por ejemplo, calculando puntaciones individuales de impacto para repartir «recursos de desempeño», o dando a los investigadores una prima por publicaciones en una revistan con un factor de impacto superior a 15.2

Por estas razones, presentamos el Manifiesto de Leiden, que recibe este nombre de la conferencia donde cristalizó. Sus diez principios no son ninguna novedad para expertos en cientometría, pero ninguno de nosotros sería capaz de recitarlos en su totalidad puesto que hasta este momento no habían sido codificados. Celebridades en cientometría, como Eugene Garfield (fundador de ISI), ya han presentado en ocasiones algunos de estos principios,3 pero no pueden estar presentes cuando los evaluadores informan a gestores universitarios que no son expertos en la metodología pertinente. Los científicos que buscan literatura para disputar o impugnar evaluaciones sólo encuentran las informaciones necesarias en lo que son, para ellos, revistas opacas y de difícil acceso.

Ofrecemos esta síntesis de buenas prácticas en evaluación basada en indicadores métricos para que los investigadores puedan pedir cuentas a los evaluadores, y para que los evaluadores puedan pedir cuentas a los indicadores.

DIEZ PRINCIPIOS

1. La evaluación cuantitativa tiene que apoyar la valoración cualitativa por expertos.

Los indicadores pueden corregir la tendencia a perspectivas sesgadas que se dan en revisión por pares y facilitar la deliberación. En este sentido, los indicadores pueden fortalecer la evaluación por pares puesto que tomar decisiones sobre colegas es difícil sin varias fuentes de información. Sin embargo, los evaluadores no deben ceder a la tentación de supeditar las decisiones a los números. Los indicadores no pueden sustituir a los razonamientos informados. Los decisores tienen plena responsabilidad sobre sus evaluaciones.

2. El desempeño debe ser medido de acuerdo con las misiones de investigación de la institución, grupo o investigador.

Los objetivos de un programa de investigación tiene que ser especificados al principio, y los indicadores usados para medir el desempeño tienen que estar claramente relacionados con estos objetivos. La elección y usos de los indicadores tiene que tener en cuenta los contextos socio-económicos y culturales. Los científicos tienen diversas misiones de investigación. La investigación para avanzar las fronteras del conocimiento académico es diferente de la investigación focalizada en proveer soluciones a problemas sociales. La evaluación puede estar basada en méritos relevantes para la industria, el desarrollo de políticas, o para los ciudadanos en general, en vez de méritos basados en nociones académicas de excelencia. No hay un modelo de evaluación que se pueda aplicar en todos los contextos.

3. La excelencia en investigación de relevancia local debe ser protegida.

En muchas partes del mundo, excelencia en investigación se asocia únicamente con publicaciones en inglés. La ley española, por ejemplo, explicita el deseo y la conveniencia que los académicos españoles publiquen en revistas de alto impacto. El factor de impacto se calcula para revistas indexadas por Web of Science, que es una base de datos basada en los Estados Unidos y que contiene una gran mayoría de revistas en inglés. Estos sesgos son especialmente problemáticos en las ciencias sociales y las humanidades, áreas en las que la investigación está más orientada a temas regionales y nacionales. Muchos otros campos científicos tienen una dimensión nacional o regional — por ejemplo, epidemiología del VIH en el África subshariana.

Este pluralismo y la relevancia social tienden a ser suprimidos cuando se crean artículos de interés a los guardianes del alto impacto: las revistas en inglés. Los sociólogos españoles muy citados en Web of Science han trabajado en modelos abstractos o estudiado datos de los Estados Unidos. En ese proceso se pierde la especificidad de los sociólogos con alto impacto en las revistas en castellano: temas como la ley laboral local, atención médica para ancianos o empleo de inmigrantes.4 Indicadores basados en literatura de alta calidad no inglesa servirían para identificar y recompensar la excelencia en investigación localmente relevante.

4. Los procesos de recopilación y análisis de datos deben ser abiertos, transparentes y simples.

La construcción de las bases de datos necesarias para evaluar debe seguir procesos establecidos antes de que la investigación sea completada. Ésta ha sido la práctica común entre los grupos académicos y comerciales que han desarrollado metodologías de evaluación durante varias décadas. Estos grupos publicaron los protocolos de referencia en la literatura revisada por pares. Esta transparencia permite el escrutinio y control de los métodos. Por ejemplo, en 2010, un debate público sobre las propiedades técnicas de un importante indicador utilizado por uno de nuestros grupos (el Centro de Estudios de Ciencia y Tecnología (CWTS) de la Universidad de Leiden, en los Países Bajos), se saldó con una revisión en el cálculo de este indicador.5Las nuevas empresas comerciales en el campo deben responder a los mismos estándards. Nadie tiene porque aceptar evaluaciones automáticas salidas de caja negras o procesos impenetrables. La simplicidad es una virtud en un indicador porque favorece la transparencia. Pero indicadores simplísticos pueden distorsionar la evaluación (veáse el principio 7). Los evaluadores debe esforzarse en encontrar un equilibrio: indicadores simples que sea respetuosos con la complejidad de los procesos de investigación descritos.

5. Los datos y análisis deben estar abiertos a verificación por los evaluados

Con el fin de asegurar la calidad de los datos, los investigadores incluídos en estudios bibliométricos tienen que poder comprobar que sus contribuciones han sido correctamente identificadas. Los responsables y gestores de los procesos de evaluación deben garantizar la exactitud de los datos usados mediante métodos de auto-verificación o auditoría por terceras partes. La universidades podrían implementar este principio en sus sistemas de información. Este debería ser un principio rector en la selección de proveedores de estos sistemas. La compilación y proceso de datos de alta calidad, precisos y rigurosos, lleva tiempo y cuesto dinero. Los responsables deben asignar presupuestos a la altura de estas necesidades de calidad.

6. Las diferencias en las prácticas de publicación y citación entre campos científicos deben tenerse en cuenta.

La mejor práctica en evaluación es proponer una batería de indicadores y dejar que los distintos campos científicos escojan los indicadores que mejor les representan. Hace unos años, un grupo de historiadores recibió una puntuación relativamente baja en una evaluación nacional de pares porque escribían libros en vez de artículos en revistas indexadas por Web of Science. Estos historiadores tuvieron la mala suerte de formar parte del departamento de psicología. La evaluación de historiadoes y científicos sociales requiere la inclusión de libros y literatura en la lengua local; la evaluación de investigadores en informática necesita considerar las contribuciones a conferencias.

La frecuencia de citación varía según los campos: las revistas más citadas en ránkings de matemáticas tienen un factor de impacto alrededor de 3; las revistas más citadas en ránkings de biología celular tienen factors de impactor alrededor de 30.

Por lo tanto, se necesitan indicadores normalizados por campo, y el método más robusto de normalización esta basado en percentiles: cada publicación es ponderada según el percentil al que pertenece en la distribución de citaciones de su campo (por ejemplo, el percentil 1%, 10%, 20% más alto). Una única publicación altamente citada mejora un poco la posición de una universidad en un ranking basado en percentiles, pero puede propulsar la universidad de un lugar medio a la primeras posiciones en un ranking basado en promedios de citas.6

7. La evaluación individual de investigadores debe basarse en la valoración cualitativa de su portafolio de investigación.

El índice-h aumenta con la edad del investigador, aunque éste ya no publique. El índice-h varía por campos: los científicos en las ciencias de la vida pueden llegar a 200; los físicos a 100 y los científicos sociales a 20 o 30.7Es un índice que depende de la base de datos: hay informáticos que tienen un índice-h de 10 en Web of Science, pero de 20 o 30 en Google Scholar.8 Leer y valorar el trabajo de un investigador es mucho más apropiado que confiar en un único número. Incluso cuando se comparan un gran número de científicos, es mejor adoptar un enfoque que considere información diversa sobre cada individuo, incluyendo sus conocimiento, experiencia, actividades e influencia.

8. Debe evitarse la concreción improcedente y la falsa precisión.

Los indicadores de ciencia y tecnología tienden a la ambigüedad conceptual y a la incertidumbre, y se fundamentan en hipótesis que no están universalmente aceptadas. Por esta razón, las buenas prácticas usan múltiple indicadores con el fin de construir un retrato robusto y plural. En la medida que sea posible cuantificarla, información sobre incertidumbre y error debería acompañar la valores de los indicadores publicados, por ejemplo usando barras de error. Si esto no fuera posible, los productores de indicadores deberían al menos evitar ofrecer un falso nivel de precisión. Por ejemplo, el factor de impacto de revistas se publica con tres decimales para evitar empates. Sin embargo, dada la ambigüedad conceptual y la variabilidad aleatoria de las citas, no tiene sentido distinguir entre revistas por pequeñas diferencias en el factor de impacto. Se debe evitar la falsa precisión: sólo un decimal está justicaficado.

9. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores.

Los indicadores cambian el sistema científico a través de los incentivos que establecen. Estos efectos deberían ser anticipados. Esto significa que una batería de indicadores es siempre preferible puesto que un solo indicador es susceptible de generar comportamientos estratégicos y substitución de objetivos (según la cual la medida se convierte en un fin en sí misma). Por ejemplo, en los 1990s, Australia financió investigación en universidades de acuerdo con una fórmula basada sobretodo en el número de publicaciones de un instituto. Las universidades podían calcular el «valor» de una publicación en una revista arbitrada; en el año 2000, el valor se estimó en Aus$800 (US$480) destinados a recursos de investigación. Como era de esperar, el número de artículos publicados por autores australianos subió, pero en revistas menos citadas, lo que sugiere que la calidad de los artículos disminuyó.9

10. Los indicadores deben ser examinados y actualizados periódicamente.

Las funciones de la investigación y los objetivos de la evaluación cambian o se desplazan, y el sistema de investigación co-evoluciona con ellos. Medidas que fueron útiles en su día pasan a ser inadecuadas y nuevos indicadores aparecen. Por lo tanto, los sistemas de indicadores tienen que ser revisados y tal vez modificados. Al darse cuenta de los efectos de su fórmula simplista de evaluación, en 2010 Australia adoptó la iniciativa Excellence in Research for Australia, que es más compleja y pone énfasis en la calidad.

Pasos siguientes

Siendo fiel a estos diez principios, la evaluación de la investigación puede jugar un papel importante en el desarrollo de la ciencia y sus interacciones con la sociedad. Los indicadores de investigación pueden proporcionar información crucial que sería difícil de aglutinar o entender a partir de experiencias individuales. Pero no se debe permitir que la información cuantitativa se convierta en un objetivo en sí misma. Las mejores decisiones se toman combinando estadísticas robustas sensibles a los objetivos y la naturaleza de la investigación evaluada. Tanto la evidencia cuantitativa como la cualitativa son necesarias — cada cual es objetiva a su manera. Decisiones sobre la ciencia tienen que ser tomadas en base a procesos de alta calidad informados por datos de la mayor calidad.

1 Wouters, P. in Beyond Bibliometrics: Harnessing Multidimensional Indicators of Scholarly Impact (eds Cronin, B. & Sugimoto, C.) 47–66 (MIT Press, 2014).

2 Shao, J. & Shen, H. Learned Publishing 24, 95–97 (2011).

3 Seglen, P. O. Br. Med. J. 314, 498–502 (1997). Garfield, E. J. Am. Med. Assoc. 295, 90–93(2006).

4 López Piñeiro, C. & Hicks, D. Res. Eval. 24, 78–89 (2015).

5 van Raan, A. F. J., van Leeuwen, T. N., Visser, M. S., van Eck, N. J. & Waltman, L. J. Informetrics 4, 431–435 (2010).

6 Waltman, L. et al. J. Am. Soc. Inf. Sci. Technol. 63, 2419–2432 (2012).

7 Hirsch, J. E. Proc. Natl Acad. Sci. USA 102, 16569–16572 (2005).

8 Bar-Ilan, J. Scientometrics 74, 257–271 (2007).

9 Butler, L. Res. Policy 32, 143–155 (2003).

Guía de Publicación de Europeana

 

figuraprocesoenviodatoseuropeana

Europeana  [e-Book]  Guía de publicación de Europeana v1.3, 2016.

Texto completo

Se trata de un recurso para los proveedores de datos que comparten sus colecciones con Europeana, en el que se describen los metadatos mínimos necesarios para incorporar los datos en Europeana. Pretende ayudar a los agregadores y a los proveedores de datos a compartir sus contenidos, a que estén completamente estandarizados y que puedan interoperar si lo desean, y a mejorar Europeana de manera uniforme y coherente.

La Guía de Publicación de Europeana es un recurso para los proveedores de datos que comparten sus colecciones con Europeana. Describe los metadatos mínimos necesarios para incorporar los datos en Europeana. El Marco Publicación de Europeana va más allá de los requisitos mínimos de los metadatos, abordando también la calidad del contenido. Este describe los cuatro niveles de participación en Europeana y supondrá una ayuda para que los proveedores de datos puedan elegir qué nivel encaja con su organización o colección particular, dependiendo de si prefiere aportar el nivel mínimo de metadatos para hacer que sus colecciones estén accesibles en Europeana, o una mayor calidad de los datos con enlaces directos al contenido y licencias abiertas que la gente pueda utilizar. Europeana ha reunido más de 45 millones de objetos digitales procedentes de las colecciones online de más de 3.500 galerías, bibliotecas, museos, colecciones audiovisuales y archivos de toda Europa. Seguiremos siendo no excluyentes, tanto como podamos, y recogeremos la gama completa del diverso patrimonio digital cultural, pero también debemos centrarnos en mejorar la calidad de los datos. La accesibilidad, la fiabilidad y la consistencia de metadatos y contenido son enormemente importantes para el servicio que queremos desarrollar con los proveedores, nuestros socios. Este objetivo de mejorar la calidad es una prioridad clave en la Estrategia 2020 de Europeana1 y en el Plan de Negocio 20152 . ¿Cómo podemos conseguirlo? Una consulta con nuestros socios puso de manifiesto una falta de claridad sobre los estándares mínimos o de los criterios de aceptación para publicar colecciones en Europeana. A través de los años, estos criterios de aceptación han sido discutidos y plasmados en varios documentos, desde el Acuerdo de intercambio de datos (Data Exchange Agreement 3 ) hasta La carta de dominio público (Public Domain Charter 4 ), pero carecíamos de un documento único que explicase todas nuestras políticas de publicación. Este documento reúne toda la información existente sobre esto en un solo lugar. Pretende ayudar a los agregadores y a los proveedores de datos a compartir sus contenidos, a que estén completamente estandarizados y que puedan interoperar si lo desean, y a mejorar Europeana de manera uniforme y coherente. La Guía de Publicación de Europeana describe los criterios para contribución con los metadatos a Europeana. Trabajaremos con los proveedores de datos para asegurarnos de que sus conjuntos de datos cumplen nuestros criterios de publicación. Los buenos contenidos ofrecen al público usuario una mejor experiencia y un mayor contacto con las colecciones. La Guía de Publicación de Europeana es un recurso para los proveedores de datos que comparten sus colecciones con Europeana. Describe los metadatos mínimos necesarios para incorporar los datos en Europeana. El Marco Publicación de Europeana va más allá de los requisitos mínimos de los metadatos, abordando también la calidad del contenido. Este describe los cuatro niveles de participación en Europeana y supondrá una ayuda para que los proveedores de datos puedan elegir qué nivel encaja con su organización o colección particular, dependiendo de si prefiere aportar el nivel mínimo de metadatos para hacer que sus colecciones estén accesibles en Europeana, o una mayor calidad de los datos con enlaces directos al contenido y licencias abiertas que la gente pueda utilizar. Europeana ha reunido más de 45 millones de objetos digitales procedentes de las colecciones online de más de 3.500 galerías, bibliotecas, museos, colecciones audiovisuales y archivos de toda Europa. Seguiremos siendo no excluyentes, tanto como podamos, y recogeremos la gama completa del diverso patrimonio digital cultural, pero también debemos centrarnos en mejorar la calidad de los datos. La accesibilidad, la fiabilidad y la consistencia de metadatos y contenido son enormemente importantes para el servicio que queremos desarrollar con los proveedores, nuestros socios. Este objetivo de mejorar la calidad es una prioridad clave en la Estrategia 2020 de Europeana1 y en el Plan de Negocio 20152 . ¿Cómo podemos conseguirlo? Una consulta con nuestros socios puso de manifiesto una falta de claridad sobre los estándares mínimos o de los criterios de aceptación para publicar colecciones en Europeana. A través de los años, estos criterios de aceptación han sido discutidos y plasmados en varios documentos, desde el Acuerdo de intercambio de datos (Data Exchange Agreement 3 ) hasta La carta de dominio público (Public Domain Charter 4 ), pero carecíamos de un documento único que explicase todas nuestras políticas de publicación. Este documento reúne toda la información existente sobre esto en un solo lugar. Pretende ayudar a los agregadores y a los proveedores de datos a compartir sus contenidos, a que estén completamente estandarizados y que puedan interoperar si lo desean, y a mejorar Europeana de manera uniforme y coherente. La Guía de Publicación de Europeana describe los criterios para contribución con los metadatos a Europeana. Trabajaremos con los proveedores de datos para asegurarnos de que sus conjuntos de datos cumplen nuestros criterios de publicación. Los buenos contenidos ofrecen al público usuario una mejor experiencia y un mayor contacto con las colecciones.

Siete razones para cuidar la Integridad en la Investigación

sevenreasons_thmb

Seven Reasons to Care about Integrity in Research (June 2015). [e-Book] Brussels, Science Europe, 2015.

Texto completo

Este folleto ha sido preparado por Science Europe’s Working Group on Research Integrity. La integridad de la investigación es intrínseca a la actividad de investigación y a la excelencia. Es el núcleo de la investigación en sí. Es una base para que los investigadores confíen entre sí, es tan importante como el registro dela propia investigación  es la base de la confianza de la sociedad en la evidencia de la investigación y experiencia ..

Necesidad de un mayor compromiso con el acceso abierto a la investigación de calidad

need-for-diamond-engagement-around-openaccess_2015-pdf

 The Need for ‘Diamond Engagement’ around Open Access to High Quality Research Output (July 2015).  [e-Book] Brussels, Science Europe, 2015.

Texto completo 

 

En este documento de opinión del Science Europe Scientific Committee for the Social Sciences  reconoce los esfuerzos que se han realizado hasta la fecha los proveedores de fondos de investigación, gestores de repositorios digitales, investigadores y usuarios finales de la investigación y les invita a realizar un cambio cultural en su compromiso con el acceso a los recursos con el fin de hacer que los artículos revisados por pares puedan estar de manera inminente a disposición de un público más amplio.

El Comité Científico es muy consciente de las dificultades que enfrentan algunas comunidades de investigación en el diálogo con el enfoque sobre OA y le gustaría ofrecer un camino a seguir para hacer frente a la situación actual. Los científicos sociales, en particular, han estado debatiendo la cuestión sobre OA, dada la cantidad de tiempo que las normas actuales de calidad y buenas prácticas para su publicación llevaron a configurar. La comunidad de investigadores percibe que estas normas están reguladas por las revistas revisados por pares que no ofrecen la OA, El otro aspecto importante es que el pago de los Cargos por procesamiento de artículo (APC) a revistas para su publicación OA son a menudo inasequibles dados los limitados recursos disponibles para las disciplinas de ciencias sociales. En este contexto, el presente documento ilustra cómo el deposito de artículos en repositorios públicos puede ser beneficioso para la comunidad de investigación.

La investigación en Humanidades Digitales para apoyar la innovación y el cambio

dhatread_logo

Radical Innovation: Humanities Research Crossing Knowledge Boundaries and Fostering Deep Change (December 2015). [e-Book]  Brussels, Science Europe, 2015.

Texto completo

Este documento de opinión muestra cómo la investigación en Artes y Humanidades  se encuentra en el corazón de los procesos de innovación. En este documento, el Comité Científico de Science Europe para las Humanidades defiende la necesidad de una comprensión más amplia y profunda del concepto de innovación, con el fin de preparar mejor a Europa para hacer frente a los desafíos globales. El Comité señala algunas maneras de lograr un mayor liderazgo europeo a través de la promoción de la innovación radical, poniendo de relieve la contribución de la investigación en Artes y Humanidades  ..

Prioridades estratégicas, financiamiento y cooperación en infraestructuras de investigación en Europa

4-science-europe-research-infrastructure-c-wikiimages-640x360

Strategic Priorities, Funding and Pan-European Co-operation for Research Infrastructures in Europe (January 2016). [e-Book] Brussels, Science Europe, 2016

Texto completo

La demanda de infraestructuras de investigación es alta en todos los sectores de la ciencia. Sin embargo, los fondos disponibles para la inversión de capital y gastos de funcionamiento están generalmente limitados frente a la demanda. la asignación eficaz de los fondos disponibles y el funcionamiento eficaz de las instalaciones tanto, es fundamental con el fin de servir a la comunidad científica de la mejor manera posible …

Centro Documental de la Memoria Histórica. Planeta Biblioteca 2016/04/27

 

26410937520_5e13c14f0a_b_d

Escuchar

Ir a descargar

Ha sido un placer contar en nuestro programa con Manuel Melgar Camarzana , director del Centro Documental de la Memoria Histórica. Hemos charlado con Manuel sobre que es el Centro Documental de la Memoria Histórica, su origen, propósito, objetivos y mision. Su ubicación e infraestructura, fondos documentales que alberga, como puede una persona consultar los fondos disponibles, que servicios y actividaddes se prestan en el CMH, a quien van dirigidas, el trabajo de difusión a través de redes sociales, y las perspectivas de futuro del CMH.

El Centro Documental de la Memoria Histórica, ubicado en la ciudad de Salamanca, custodia una rica documentación que puede ser utilizada por los ciudadanos, directamente, mediante consulta in situ de los documentos originales, o, indirectamente, solicitando la información que necesiten a través del servicio de información del Centro. Paralelamente se realizan tareas de reproducción de documentos así como de conservación, descripción y difusión, para así poder garantizar la permanencia de una parte del patrimonio documental de la nación y ofrecer a la ciudadanía el acceso y disfrute de unos bienes que sirven para garantizar sus derechos y para el conocimiento del pasado histórico más reciente.

Y en CON LA MÚSICA A OTRA PARTE

Canciones que hablan de películas. Con la música a otra parte 2016/04/15