Archivo de la etiqueta: Investigación científica

¿Es mejor depositar en un repositorio temático o en uno institucional?

organization-1

¿Es mejor depositar en un repositorio temático o en uno institucional? El actual desarrollo del acceso abierto hace prever un buen desarrollo de los repositorios tanto institucionales como temáticos, así como la creación de repositorios transversales a ambos en áreas temáticas determinadas. A veces los investigadores nos preguntan ¿Es mejor depositar en un repositorios temático o en uno institucional?. El consejo es hacerlo en uno y en otro. No es incompatible. Por eso aquí recogemos una lista de repositorios por disciplinas. Si conoces alguno más nos lo comentas y lo incluimos.

Cuando se habla de archivos abiertos es práctica común considerar que el adjetivo “abierto” se refiere al acceso, y aunque los archivos abiertos son de acceso libre, la calificación de abierto se refiere a la arquitectura informática del mismo, que frente a la concepción distribuida de la WWW, presenta una arquitectura caracterizada por proveedores de datos y proveedores de servicios. Existen dos tipos de archivos abiertos: 1. Archivos institucionales. Son los creados por las propias organizaciones para depositar, usar y conservar la producción científica que generan sus investigadores, y que ésta esté disponible para el resto de la sociedad, considerando que el conocimiento es un activo más de la organización que debe repercutir en su beneficio. 2. Archivos disciplinares. Son los creados por grupos de investigadores y gestores de información en un ámbito del conocimiento para mejorar el sistema de comunicación científica.

Frecuentemente se plantea si es mejor depositar en un repositorio institucional o uno disciplinar. Hay que decir al respecto que no es excluyente el que el documento se deposite en uno u otro, o en ambos a la vez; es perfectamente factible que el autor deposite el documento en su página personal, también en el archivo de su institución y en un repositorio temático.

El objetivo de la implementación de un repositorio en una institución es poner a disposición de la sociedad y del resto de investigadores toda la producción científica generada por la institución y hacer que ese contenido sea fácilmente recuperable y disponible en beneficio de la organización y del resto de la sociedad. Un repositorio institucional no solamente va a incluir artículos de revistas, también es importante que integre documentos institucionales y patrimoniales de la entidad; así como un importante elemento para la cooperación en el aprendizaje, puede incluir distintos usos : – Comunicación científica – Educación y enseñanza – Preservación digital a largo plazo – Prestigio institucional – Gestión del conocimiento – Evaluación investigadora.

Es conveniente recordar que el repositorio no es una alternativa a las revistas; simplemente es una herramienta que contribuye a favorecer la visibilidad de la entidad y de sus investigadores; ya que este contenido –sus metadatos– son recogidos por recolectores generales y especializados que contribuirán decisivamente a su difusión. El repositorio supone una ventaja competitiva para la propia organización que proporciona un valor añadido, que es el acceso libre a su producción científica, a la vez que incrementa la visibilidad y el impacto propio y de sus investigadores llegando a ser en palabras de Kircz “el metabolismo central del conocimiento”

El coste económico del diseño y puesta en marcha del repositorio institucional depende en muy buena medida de las infraestructuras y recursos humanos disponibles en la propia universidad, que puede aprovechar los existentes; a pesar de todo, se trata de un coste mínimo respeto al presupuesto general de la entidad. Otras prácticas, como crear una revista de acceso abierto, convertir las existentes o aportar financiación para la publicación en abierto en general son mucho más complejas y caras que implementar un repositorio.

En conclusión, la implementación de un repositorio en una institución tiene un coste relativamente bajo, ya que se puede implementar con un programa de código abierto cuyo desarrollo ya tiene un nivel de madurez suficientemente alto, su mantenimiento va a requerir una parte del tiempo de un empleado, y los beneficios para la institución son altos ya que mejoran la visibilidad de la institución y el impacto de los artículos de sus investigadores y, por lo tanto, de la propia institución.

Información tomada de:

Alonso-Arévalo, Julio and Subirats-Coll, Imma and Martínez-Conde, María-Luisa . Informe APEI sobre acceso abierto., 2008 Informes APEI . APEI, Asociación Profesional de Especialistas en Información (Spain). [Book]

[img] PDF
informeapeiaccesoabierto.pdf

Download (2672Kb) | Preview

Aqui recogemos algunos de los repositorios institucionales por disciplinas que serán de interés para aquellos investigadores que no dispongan de repositorio institucional o bien quieran estar presentes en ambos canales para así tener mayor visibilidad. la tabla esta tomada de Fundamentos tecnológicos del acceso abierto: Por Teresa Silió

Biblioteconomia E-LIS.

http://eprints.rclis.org

DList (Digital Library Information Science & Technology).

http://dlist.sir.arizona.edu

Biomedicina BioMed Central.

http://www.biomedcentral.com

PubMed Central.

http://www.pubmedcentral.gov

Highwire.

http://highwire.stanford.edu/

Scielo.

http://scielo.isciii.es/scielo.php/lng_es

NetPrints: Clinicl Medicine & Health Research.

http://clinmed.netprints.org/home.dtl

Ciencia y Tecnología National Science Digital Library (NSDL).

http://nsdl.org/

Citebase.

http://citebase.eprints.org/cgi-bin/search

Economia REPEC.

http://www.repec.org/

Física ArXiv.

http://es.arxiv.org/

FiArchon.

http://archon.cs.odu.edu/

Institute of Physics.

http://www.iop.org/EJ/

NASA Technical Report Server.

http://ntrs.nasa.gov/?method=advanced

CERN Document Server (CDS).

http://cdsweb.cern.ch/?ln=en

Informática Ncstrl.

http://www.ncstrl.org/

Citeseer.

http://citeseer.ist.psu.edu/

Computer Research Repository (CoRR).

http://uk.arxiv.org/archive/cs/intro.html

Lingüística y Psicologia CogPrints.

http://cogprints.soton.ac.uk/

Open Language Archives Community.

http://www.language-archives.org/

Matemáticas Mathematics Preprint Server.

http://www.ams.org/global-preprints/special-server.html

Química ChemWeb.com.

http://chemweb.com/

Sociología SocArxiv https://osf.io/preprints/#socarxiv
Tesis doctorales Digital Library of MIT Theses.

http://theses.mit.edu/

Tesis Doctorales en Red de las Universidades de Cataluña.

http://www.tdr.cesca.es/index_tdx_cs.html

Varios D-Space, MIT.

https://dspace.mit.edu/index.jsp

E-PrintsUCM, Universidad Complutense de Madrid.

http://www.ucm.es/eprints

European Patent Office.

http://www.european-patent-office.org/index.en.php

Digital Library of the Commons (DLC).

http://dlc.dlib.indiana.edu/view/subjects/

Ibiblio Archivo Digital (por CDU).

http://www.ibiblio.org/collection

The Infomine Scholarly Internet Resource Collection.

http://infomine.ucr.edu/

JISC Information Environment Service Registry (IESR).

http://iesr.ac.uk/

Oaister.

http://oaister.umdl.umich.edu/o/oaister/

Video Open Video.

http://www.open-video.org/

Impacto del Acceso Abierto

oa_benefits

El acceso abierto es un instrumento fundamental para mejorar la circulación del conocimiento y, con ella, la innovación. Son varios los países y distintas las disciplinas donde el número de artículos a los que puede accederse hoy gratuitamente supera el 50 %. El informe “Proportion of Open Access Peer-reviewed Papers at European and World Levels, 2004-2011”, un estudio europeo cuyo objetivo era cuantificar la proporción de los artículos revisados disponibles en acceso abierto tomando un área geográfica correspondiente a Europa, Brasil, Canadá, Japón y Estados Unidos, estimó que en 2011 el 40% de los artículos peer review estaban en acceso abierto (Archambault et al. 2013; Gargiulo 2013).

26594111650_426bd08539_o_d

La libre disponibilidad de la mayor parte de los artículos es ya una realidad en el campo de la ciencia y la tecnología en general, en el de la investigación biomédica, en el de la biología y en el de las matemáticas y la estadística. Por el contrario, los campos en los que el acceso abierto sigue estando más restringido son el de las ciencias sociales y humanidades y el de las ciencias aplicadas, la ingeniería y la tecnología.(Archambault, Amyot, Deschamps, Nicol, Rebout and Roberge 2013) Pues existen distintas formas de comportamiento de los autores en diferentes disciplinas científicas, en Ciencias prácticamente el total de los autores deposita el preprint en Arxiv, el repositorio de la ciencia creado hace 20 años por Paul Gimsparg en los Álamos, hoy en Standford. Esto forma parte de la dinámica de trabajo de esta área que requiere de la rápida difusión de los resultados, ya que de otro modo otro investigador puede adelantarse en su publicación. Por ello lo que encontramos en este repositorio son preprints, y no postprint como ocurre en las Ciencias Sociales y Humanides, que se deposita el artículo una vez publicado.

Generalmente los estudios evalúan la correlación entre las cifras de citación y de descargas. Se parte de la hipótesis de que los artículos con un menor número de descargas también acumulan menos citas. Los resultados difieren de una base de datos a otra. Sí existe una cierta correlación entre citas y descargas, pero éstas dependen de la disciplina o tipo de documento. En conclusión se puede decir que las descargas no son un sustituto universal de las cifras de citación, si bien el acceso abierto generalmente parece que conlleva una determinada ventaja competitiva (Nieder et al. 2013). En el cuadro que vemos a continuación (Archambault et al..Op. Cit) se establece una puntuación superior a 1 que indica que las publicaciones en OA son más citadas que en el ámbito general, mientras que una puntuación por debajo de 1 significa que estas publicaciones se citan con menos frecuencia. Por ejemplo, los trabajos sobre Agricultura, Pesca y Silvicultura reciben más o menos el mismo nivel de la cita (1.06) en OA que si sólo estuvieran en cualquiera revista. Por lo general prácticamente en todas las áreas de conocimiento se deriva una ventaja de citación OA, y paradójicamente, en muchos de los campos en los que la proporción de artículos OA es baja reciben una ventaja competitiva de cita considerable, como en la filosofía y teología (1,54), humanidades artes en general y ciencias sociales, los estudios de comunicación, ingeniería y artes visuales y escénicas. Esto responde a una lógica, ya que cuanto más artículos esté en Acceso Abierto en una disciplina menos se beneficiaran que aquellas disciplinas que tienen todo en OA, ya que al haber menos, los pocos que hay se citan mucho más. Pues si el 100% de los artículos estuvieran en abierto el OA no tendría ninguna ventaja competitiva.

26773323582_c56a1ae970_o_d

Hay que matizar que las estadísticas sobre las revistas de la ruta dorada (revista OA) requieren una cuidadosa interpretación, ya que muchas de ellas son más jóvenes y pequeñas, y estos factores tienen un efecto negativo sobre la tasa de citas y por lo tanto indican negativamente en los valores medidos de cita, pues los investigadores prefieren leer y citar con más frecuencia revistas establecidas, por lo que es un reto para una revista joven es tener autores y artículos de alta calidad, pues se necesita tiempo para obtener una reputación y atraer a investigadores consagrados. Si bien, la mayoría de estos estudios se hacen en relación a las citas recibidas en ISI Web of Science, donde las citas que se recogen son las de las propias revistas incluidas en este índice, y no las citas provenientes de otras revistas no incluidas en ISI. Por ello si consultamos diferentes índices como Scopus, que tiene una mayor representación de revistas de otros ámbitos geográficos o lingüísticos, o mismamente el índice Google Schoolar que se beneficia de la sinergia del propio buscador, veremos que el impacto es mucho mayor, y un factor fundamental para ganar visibilidad es que este motor de búsqueda indexe una investigación como una publicación académica.

Posteriormente a estas reflexiones, considera que lo que está obstaculizando llegar a la situación óptima, es decir al 100% de los artículos en acceso abierto, son una serie de obstáculos puramente psicológicos que bautiza como “Parálisis de Zeno”. Aunque según Harnad cada fobia que está limitando al investigador a depositar en abierto es falsa, ya que se basa en malentendidos, y según el autor, un estudio de los síntomas, analizando cada fobia en si mismo será la única manera rápida y segura a liberarse de este círculo paralizador por medio del mandato de autoarchivo OA, como ya algunas instituciones realizan con éxito.

Para Harnad hay muchas razones para que persista la inercia de la comunidad de investigación, y prácticamente todas ellas comienzan inexplicablemente con la letra “P”, que también es la primera letra de la palabra “parálisis”. En el libro de Svevo, Zeno su protagonista se plantea lo siguiente:

“¿Cómo voy a caminar por la habitación? No tengo tiempo suficiente! Antes de que pueda hacer el camino a través de la habitación, primero tengo que conseguir hacer mitad de camino a través del cuarto, y eso lleva tiempo, pero antes de que pueda conseguir llegar a mitad de camino, tengo que llegar a la mitad de la mitad del camino a través del cuarto, y así sucesivamente Así que no es el momento ni siquiera de empezar;. por lo tanto, posiblemente nunca pueda caminar por la habitación “.

Italo Svevo “La conciencia de Zeno”

La solución pragmática a la paradoja de Zeno es, por supuesto, sólo seguir adelante y dejar que sus piernas decidan y hagan el trabajo por si mismo. La cura para la parálisis de Zeno es la misma, empezar a caminar… hacer las pocas cosas necesarias para poder disponer de todos los artículos en Acceso Abierto. Para pasar A analizar las veinte P de Parálisis, que impiden que el 100% de loso artículos estén en abierto cada uno con sus soluciones y falsas ideas:

1. Permiso / Piratería : ” ¿Cómo voy a autoarchivar si es ilegal! “ 2. Prestigio : “¿Para qué voy a autoarchivar? !Carece del prestigio!” 3. Peer-Review : “¿Cómo es posible que los artículos de acceso abierto no estén revisados por pares?” 4. Promoción : “¿Para que voy a autoarchivar? si no va a contar para los sistemas de acreditación investigadora! ” 5. Preservación: “¿Para qué voy a autoarchivar si no va a perdurar para siempre, como el papel?” 6. Prioridad : “¿Cómo voy a perder tiempo en autoarchivar puedo perder prioridad para mi trabajo! “ 7. Plagio / Propiedad : “¿Para qué voy a autoarchivar?, ! Mi trabajo podría ser plagiado! “ 8. Privacidad / Patentes : “ ¿Para qué voy a autoarchivar?, !Mis ideas podrían ser robadas! “ 9. Paranoia : “¿Para qué voy a autoarchivar?, !Si a mi institución le gusta poseer el controlar mi trabajo! “ 10. Proliferación : “¿Para qué voy a autoarchivar?, ! Los usuarios no van a saber cuál es la versión auténtica!” 11. Paper-Glut (Superabundancia): : “¿Por qué habría de autoarchivar? Ya es bastante difíciles de encontrar el artículo para que esté en dos sitios!” 12. Precios : ” ¿Por qué debería autoarchivar? Todo lo que necesitamos es que las revistas tengan un precio adecuado “ 13. Pretty-Sitting : “¿Por qué debería autoarchivar? !Ya dispongo de acceso a todo lo que necesito! “ 14. Papyrofilia / Imprimir / PDF : ” ¿Por qué debería autoarchivar? Lo que necesitamos es artículos impresos! “ 15. Publishing’s Future: (Futuro de la publicación): ” ¿Por qué debería autoarchivar? Lo que necesitamos son revistas OA! “ 16. Publishers’ Future: (Futuro de los editores): ” ¿Cómo es posible autoarchivar? Perjudicaré a mi editor! “ 17. Professional Societies’ Future (Futuro de la sasociaciones profesionales) : ” ¿Para qué voy a autoarchivar? Se arruinará mi Sociedad Científica “ 18. Professional Future of Librarians (Futuro Profesional de Bibliotecarios) : ”¿Para qué voy a autoarchivar? Dejaré a los bibliotecarios sin trabajo!“ 19. Prioridades / Transpiración: “ ”¿Para qué voy a autoarchivar? !El auto-archivo es demasiado complicado y requiere mucho tiempo y no dispongo de tiempo para ello! “ Transcurridos 8 años de esta publicación y con datos de ROARMAP (Registry of Open Access Repository Material Archiving Policies) en 2014 más de 350 instituciones tienen algún tipo de mandato de autoarchivo.

Ver completo: Alonso-Arévalo, Julio Alfabetización en Comunicación Científica: Acreditación, OA, redes sociales, altmetrics, bibliotecarios incrustados y gestión de la identidad digital., 2014 . In Alfabetización informacional: Reflexiones y Experiencias, Lima (Perú) , Lima-Perú, 20 Y 21 de marzo del 2014.

Además Monográfico sobre

Literatura sobre  el Impacto del Acceso Abierto

Almetrics: métricas alternativas e impacto social de la investigación significado e implicaciones

donutbox

Alonso-Arévalo, J. and Vázquez Vázquez, M. (2016). ¿Qué es y qué implicaciones tiene altmetrics? Desiderata, 1, (2), pp. 23-25. Texto completo

Presentación

Almetrics: métricas alternativas e impacto social de la investigación significado e implicaciones / Julio Alonso Arévalo

Taller Universidad Antonio de Nebrija (Madrid, España) día 6 de mayo de 2016

Los medios sociales están cambiando la forma de interactuar, presentar las ideas e información y juzgar la calidad de los contenidos y contribuciones. En los últimos años han surgido cientos de plataformas que permiten compartir libremente todo tipo de información y conectarnos a través de redes. Estas nuevas herramientas generan estadísticas de actividad e interacciones entre sus usuarios tales como menciones, retweets, conversaciones, comentarios en Blogs o en Facebook; gestores de referencias que muestran índices de popularidad de las referencias más compartidas por otros investigadores o repositorios que generan estadísticas de visitas o descargas de artículos. En este documento se analiza que implicaciones y significado tiene altmetrics, cuáles son sus ventajas y críticas, plataformas (Altmetric.com, ImpactStory, Plos Altmetrics, PlumX), avances y que beneficios reporta para autores, editores y bibliotecarios

Manifiesto de Leiden sobre indicadores de investigación

fotoblog9978

Hicks, D., et al. Bibliometrics: The Leiden Manifesto for research metrics: Use these ten principles to guide research evaluation,, Leiden, 2015.

Los datos sobre las actividades científicas están siendo cada vez más utilizados para gobernar la ciencia. Evaluaciones sobre investigación que fueron en su día diseñadas individualmente para su contexto específico y realizadas por pares, son ahora rutinarias y están basadas en métricas.1 El problema es que la evaluación pasó de estar basada en valoraciones de expertos a depender de estas métricas. Los indicadores han proliferado: normalmente bien intencionados, no siempre bien informados, y a menudo mal aplicados. Cuando organizaciones sin conocimiento sobre buenas prácticas e interpretación apropiada de indicadores llevan a cabo las evaluaciones, corremos el riesgo de dañar el sistema científico con los mismos instrumentos diseñados para mejorarlas.

Antes del año 2000, los expertos utilizaban el Science Citation Index del Institute for Scientific Information (ISI), en su versión de CD-ROM para realizar análisis especializados. En el 2002, Thomson Reuters lanzó una plataforma web integrada que hizo accesible a un público amplio la base de datos Web of Science. Luego aparecieron otros índices de citas que se erigieron en competencia de Web of Science: Scopus de Elsevier (2004) y Google Académico (versión beta creada en el 2004). Instrumentos basados en la web fueron luego introducidos, tales como InCites (que usa Web of Science) y SciVal (que usa Scopus) y también software para analizar perfiles individuales de citas basados en Google Académico (Publish or Perish, que apareció el 2007).

En el 2005, Jorge Hirsch, un físico de la Universidad de California en San Diego, propuso el índice-h, que popularizó el recuento de citas de investigadores individuales. El interés en el factor de impacto de las revistas académicas creció incesantemente desde 1995. Recientemente, han aparecido medidas de uso social y de comentarios online: F1000Prime fue establecido en 2002, Mendeley en 2008 y Altmetric.com en 2011.

En tanto que investigadores de cientometría, científicos sociales y gestores de investigación, hemos observado con creciente preocupación un uso incorrecto generalizado de los indicadores en la evaluación del desempeño científico. Los siguientes son algunos de los numerosísimos ejemplos posibles. En todo el mundo, las universidades se han obsesionado con su posición en los rankings globales (tales como el ranking de Shanghai y la lista del Times Higher Education), cuando estas listas están basadas en lo que a nuestro juicio son datos inexactos e indicadores arbitrarios.

Algunas organizaciones piden el índice-h a los candidatos que se presentan a ofertas de empleo. Varias universidades basan la promoción en valores umbral del índice-h y en el número de artículos en revistas de «alto impacto». Los CVs se han convertido en oportunidades de alardear de estas «puntuaciones», en particular en biomedicina. En todas partes, los supervisores piden prematuramente a sus estudiantes de doctorado que publiquen en revistas de alto impacto y consigan financiación externa.

En Escandinavia y China, algunas universidades distribuyen fondos de investigación o bonificaciones sobre la base de un número: por ejemplo, calculando puntaciones individuales de impacto para repartir «recursos de desempeño», o dando a los investigadores una prima por publicaciones en una revistan con un factor de impacto superior a 15.2

Por estas razones, presentamos el Manifiesto de Leiden, que recibe este nombre de la conferencia donde cristalizó. Sus diez principios no son ninguna novedad para expertos en cientometría, pero ninguno de nosotros sería capaz de recitarlos en su totalidad puesto que hasta este momento no habían sido codificados. Celebridades en cientometría, como Eugene Garfield (fundador de ISI), ya han presentado en ocasiones algunos de estos principios,3 pero no pueden estar presentes cuando los evaluadores informan a gestores universitarios que no son expertos en la metodología pertinente. Los científicos que buscan literatura para disputar o impugnar evaluaciones sólo encuentran las informaciones necesarias en lo que son, para ellos, revistas opacas y de difícil acceso.

Ofrecemos esta síntesis de buenas prácticas en evaluación basada en indicadores métricos para que los investigadores puedan pedir cuentas a los evaluadores, y para que los evaluadores puedan pedir cuentas a los indicadores.

DIEZ PRINCIPIOS

1. La evaluación cuantitativa tiene que apoyar la valoración cualitativa por expertos.

Los indicadores pueden corregir la tendencia a perspectivas sesgadas que se dan en revisión por pares y facilitar la deliberación. En este sentido, los indicadores pueden fortalecer la evaluación por pares puesto que tomar decisiones sobre colegas es difícil sin varias fuentes de información. Sin embargo, los evaluadores no deben ceder a la tentación de supeditar las decisiones a los números. Los indicadores no pueden sustituir a los razonamientos informados. Los decisores tienen plena responsabilidad sobre sus evaluaciones.

2. El desempeño debe ser medido de acuerdo con las misiones de investigación de la institución, grupo o investigador.

Los objetivos de un programa de investigación tiene que ser especificados al principio, y los indicadores usados para medir el desempeño tienen que estar claramente relacionados con estos objetivos. La elección y usos de los indicadores tiene que tener en cuenta los contextos socio-económicos y culturales. Los científicos tienen diversas misiones de investigación. La investigación para avanzar las fronteras del conocimiento académico es diferente de la investigación focalizada en proveer soluciones a problemas sociales. La evaluación puede estar basada en méritos relevantes para la industria, el desarrollo de políticas, o para los ciudadanos en general, en vez de méritos basados en nociones académicas de excelencia. No hay un modelo de evaluación que se pueda aplicar en todos los contextos.

3. La excelencia en investigación de relevancia local debe ser protegida.

En muchas partes del mundo, excelencia en investigación se asocia únicamente con publicaciones en inglés. La ley española, por ejemplo, explicita el deseo y la conveniencia que los académicos españoles publiquen en revistas de alto impacto. El factor de impacto se calcula para revistas indexadas por Web of Science, que es una base de datos basada en los Estados Unidos y que contiene una gran mayoría de revistas en inglés. Estos sesgos son especialmente problemáticos en las ciencias sociales y las humanidades, áreas en las que la investigación está más orientada a temas regionales y nacionales. Muchos otros campos científicos tienen una dimensión nacional o regional — por ejemplo, epidemiología del VIH en el África subshariana.

Este pluralismo y la relevancia social tienden a ser suprimidos cuando se crean artículos de interés a los guardianes del alto impacto: las revistas en inglés. Los sociólogos españoles muy citados en Web of Science han trabajado en modelos abstractos o estudiado datos de los Estados Unidos. En ese proceso se pierde la especificidad de los sociólogos con alto impacto en las revistas en castellano: temas como la ley laboral local, atención médica para ancianos o empleo de inmigrantes.4 Indicadores basados en literatura de alta calidad no inglesa servirían para identificar y recompensar la excelencia en investigación localmente relevante.

4. Los procesos de recopilación y análisis de datos deben ser abiertos, transparentes y simples.

La construcción de las bases de datos necesarias para evaluar debe seguir procesos establecidos antes de que la investigación sea completada. Ésta ha sido la práctica común entre los grupos académicos y comerciales que han desarrollado metodologías de evaluación durante varias décadas. Estos grupos publicaron los protocolos de referencia en la literatura revisada por pares. Esta transparencia permite el escrutinio y control de los métodos. Por ejemplo, en 2010, un debate público sobre las propiedades técnicas de un importante indicador utilizado por uno de nuestros grupos (el Centro de Estudios de Ciencia y Tecnología (CWTS) de la Universidad de Leiden, en los Países Bajos), se saldó con una revisión en el cálculo de este indicador.5Las nuevas empresas comerciales en el campo deben responder a los mismos estándards. Nadie tiene porque aceptar evaluaciones automáticas salidas de caja negras o procesos impenetrables. La simplicidad es una virtud en un indicador porque favorece la transparencia. Pero indicadores simplísticos pueden distorsionar la evaluación (veáse el principio 7). Los evaluadores debe esforzarse en encontrar un equilibrio: indicadores simples que sea respetuosos con la complejidad de los procesos de investigación descritos.

5. Los datos y análisis deben estar abiertos a verificación por los evaluados

Con el fin de asegurar la calidad de los datos, los investigadores incluídos en estudios bibliométricos tienen que poder comprobar que sus contribuciones han sido correctamente identificadas. Los responsables y gestores de los procesos de evaluación deben garantizar la exactitud de los datos usados mediante métodos de auto-verificación o auditoría por terceras partes. La universidades podrían implementar este principio en sus sistemas de información. Este debería ser un principio rector en la selección de proveedores de estos sistemas. La compilación y proceso de datos de alta calidad, precisos y rigurosos, lleva tiempo y cuesto dinero. Los responsables deben asignar presupuestos a la altura de estas necesidades de calidad.

6. Las diferencias en las prácticas de publicación y citación entre campos científicos deben tenerse en cuenta.

La mejor práctica en evaluación es proponer una batería de indicadores y dejar que los distintos campos científicos escojan los indicadores que mejor les representan. Hace unos años, un grupo de historiadores recibió una puntuación relativamente baja en una evaluación nacional de pares porque escribían libros en vez de artículos en revistas indexadas por Web of Science. Estos historiadores tuvieron la mala suerte de formar parte del departamento de psicología. La evaluación de historiadoes y científicos sociales requiere la inclusión de libros y literatura en la lengua local; la evaluación de investigadores en informática necesita considerar las contribuciones a conferencias.

La frecuencia de citación varía según los campos: las revistas más citadas en ránkings de matemáticas tienen un factor de impacto alrededor de 3; las revistas más citadas en ránkings de biología celular tienen factors de impactor alrededor de 30.

Por lo tanto, se necesitan indicadores normalizados por campo, y el método más robusto de normalización esta basado en percentiles: cada publicación es ponderada según el percentil al que pertenece en la distribución de citaciones de su campo (por ejemplo, el percentil 1%, 10%, 20% más alto). Una única publicación altamente citada mejora un poco la posición de una universidad en un ranking basado en percentiles, pero puede propulsar la universidad de un lugar medio a la primeras posiciones en un ranking basado en promedios de citas.6

7. La evaluación individual de investigadores debe basarse en la valoración cualitativa de su portafolio de investigación.

El índice-h aumenta con la edad del investigador, aunque éste ya no publique. El índice-h varía por campos: los científicos en las ciencias de la vida pueden llegar a 200; los físicos a 100 y los científicos sociales a 20 o 30.7Es un índice que depende de la base de datos: hay informáticos que tienen un índice-h de 10 en Web of Science, pero de 20 o 30 en Google Scholar.8 Leer y valorar el trabajo de un investigador es mucho más apropiado que confiar en un único número. Incluso cuando se comparan un gran número de científicos, es mejor adoptar un enfoque que considere información diversa sobre cada individuo, incluyendo sus conocimiento, experiencia, actividades e influencia.

8. Debe evitarse la concreción improcedente y la falsa precisión.

Los indicadores de ciencia y tecnología tienden a la ambigüedad conceptual y a la incertidumbre, y se fundamentan en hipótesis que no están universalmente aceptadas. Por esta razón, las buenas prácticas usan múltiple indicadores con el fin de construir un retrato robusto y plural. En la medida que sea posible cuantificarla, información sobre incertidumbre y error debería acompañar la valores de los indicadores publicados, por ejemplo usando barras de error. Si esto no fuera posible, los productores de indicadores deberían al menos evitar ofrecer un falso nivel de precisión. Por ejemplo, el factor de impacto de revistas se publica con tres decimales para evitar empates. Sin embargo, dada la ambigüedad conceptual y la variabilidad aleatoria de las citas, no tiene sentido distinguir entre revistas por pequeñas diferencias en el factor de impacto. Se debe evitar la falsa precisión: sólo un decimal está justicaficado.

9. Deben reconocerse los efectos sistémicos de la evaluación y los indicadores.

Los indicadores cambian el sistema científico a través de los incentivos que establecen. Estos efectos deberían ser anticipados. Esto significa que una batería de indicadores es siempre preferible puesto que un solo indicador es susceptible de generar comportamientos estratégicos y substitución de objetivos (según la cual la medida se convierte en un fin en sí misma). Por ejemplo, en los 1990s, Australia financió investigación en universidades de acuerdo con una fórmula basada sobretodo en el número de publicaciones de un instituto. Las universidades podían calcular el «valor» de una publicación en una revista arbitrada; en el año 2000, el valor se estimó en Aus$800 (US$480) destinados a recursos de investigación. Como era de esperar, el número de artículos publicados por autores australianos subió, pero en revistas menos citadas, lo que sugiere que la calidad de los artículos disminuyó.9

10. Los indicadores deben ser examinados y actualizados periódicamente.

Las funciones de la investigación y los objetivos de la evaluación cambian o se desplazan, y el sistema de investigación co-evoluciona con ellos. Medidas que fueron útiles en su día pasan a ser inadecuadas y nuevos indicadores aparecen. Por lo tanto, los sistemas de indicadores tienen que ser revisados y tal vez modificados. Al darse cuenta de los efectos de su fórmula simplista de evaluación, en 2010 Australia adoptó la iniciativa Excellence in Research for Australia, que es más compleja y pone énfasis en la calidad.

Pasos siguientes

Siendo fiel a estos diez principios, la evaluación de la investigación puede jugar un papel importante en el desarrollo de la ciencia y sus interacciones con la sociedad. Los indicadores de investigación pueden proporcionar información crucial que sería difícil de aglutinar o entender a partir de experiencias individuales. Pero no se debe permitir que la información cuantitativa se convierta en un objetivo en sí misma. Las mejores decisiones se toman combinando estadísticas robustas sensibles a los objetivos y la naturaleza de la investigación evaluada. Tanto la evidencia cuantitativa como la cualitativa son necesarias — cada cual es objetiva a su manera. Decisiones sobre la ciencia tienen que ser tomadas en base a procesos de alta calidad informados por datos de la mayor calidad.

1 Wouters, P. in Beyond Bibliometrics: Harnessing Multidimensional Indicators of Scholarly Impact (eds Cronin, B. & Sugimoto, C.) 47–66 (MIT Press, 2014).

2 Shao, J. & Shen, H. Learned Publishing 24, 95–97 (2011).

3 Seglen, P. O. Br. Med. J. 314, 498–502 (1997). Garfield, E. J. Am. Med. Assoc. 295, 90–93(2006).

4 López Piñeiro, C. & Hicks, D. Res. Eval. 24, 78–89 (2015).

5 van Raan, A. F. J., van Leeuwen, T. N., Visser, M. S., van Eck, N. J. & Waltman, L. J. Informetrics 4, 431–435 (2010).

6 Waltman, L. et al. J. Am. Soc. Inf. Sci. Technol. 63, 2419–2432 (2012).

7 Hirsch, J. E. Proc. Natl Acad. Sci. USA 102, 16569–16572 (2005).

8 Bar-Ilan, J. Scientometrics 74, 257–271 (2007).

9 Butler, L. Res. Policy 32, 143–155 (2003).

Siete razones para cuidar la Integridad en la Investigación

sevenreasons_thmb

Seven Reasons to Care about Integrity in Research (June 2015). [e-Book] Brussels, Science Europe, 2015.

Texto completo

Este folleto ha sido preparado por Science Europe’s Working Group on Research Integrity. La integridad de la investigación es intrínseca a la actividad de investigación y a la excelencia. Es el núcleo de la investigación en sí. Es una base para que los investigadores confíen entre sí, es tan importante como el registro dela propia investigación  es la base de la confianza de la sociedad en la evidencia de la investigación y experiencia ..

Necesidad de un mayor compromiso con el acceso abierto a la investigación de calidad

need-for-diamond-engagement-around-openaccess_2015-pdf

 The Need for ‘Diamond Engagement’ around Open Access to High Quality Research Output (July 2015).  [e-Book] Brussels, Science Europe, 2015.

Texto completo 

 

En este documento de opinión del Science Europe Scientific Committee for the Social Sciences  reconoce los esfuerzos que se han realizado hasta la fecha los proveedores de fondos de investigación, gestores de repositorios digitales, investigadores y usuarios finales de la investigación y les invita a realizar un cambio cultural en su compromiso con el acceso a los recursos con el fin de hacer que los artículos revisados por pares puedan estar de manera inminente a disposición de un público más amplio.

El Comité Científico es muy consciente de las dificultades que enfrentan algunas comunidades de investigación en el diálogo con el enfoque sobre OA y le gustaría ofrecer un camino a seguir para hacer frente a la situación actual. Los científicos sociales, en particular, han estado debatiendo la cuestión sobre OA, dada la cantidad de tiempo que las normas actuales de calidad y buenas prácticas para su publicación llevaron a configurar. La comunidad de investigadores percibe que estas normas están reguladas por las revistas revisados por pares que no ofrecen la OA, El otro aspecto importante es que el pago de los Cargos por procesamiento de artículo (APC) a revistas para su publicación OA son a menudo inasequibles dados los limitados recursos disponibles para las disciplinas de ciencias sociales. En este contexto, el presente documento ilustra cómo el deposito de artículos en repositorios públicos puede ser beneficioso para la comunidad de investigación.

La investigación en Humanidades Digitales para apoyar la innovación y el cambio

dhatread_logo

Radical Innovation: Humanities Research Crossing Knowledge Boundaries and Fostering Deep Change (December 2015). [e-Book]  Brussels, Science Europe, 2015.

Texto completo

Este documento de opinión muestra cómo la investigación en Artes y Humanidades  se encuentra en el corazón de los procesos de innovación. En este documento, el Comité Científico de Science Europe para las Humanidades defiende la necesidad de una comprensión más amplia y profunda del concepto de innovación, con el fin de preparar mejor a Europa para hacer frente a los desafíos globales. El Comité señala algunas maneras de lograr un mayor liderazgo europeo a través de la promoción de la innovación radical, poniendo de relieve la contribución de la investigación en Artes y Humanidades  ..

Prioridades estratégicas, financiamiento y cooperación en infraestructuras de investigación en Europa

4-science-europe-research-infrastructure-c-wikiimages-640x360

Strategic Priorities, Funding and Pan-European Co-operation for Research Infrastructures in Europe (January 2016). [e-Book] Brussels, Science Europe, 2016

Texto completo

La demanda de infraestructuras de investigación es alta en todos los sectores de la ciencia. Sin embargo, los fondos disponibles para la inversión de capital y gastos de funcionamiento están generalmente limitados frente a la demanda. la asignación eficaz de los fondos disponibles y el funcionamiento eficaz de las instalaciones tanto, es fundamental con el fin de servir a la comunidad científica de la mejor manera posible …

La piratería en línea se extiende a los libros y materiales académicos

 

Frankfurt Book Fair 2013

 

Online Piracy of Academic Materials Extends to Scholarly Books

Online Piracy of Academic Materials Extends to Scholarly Books. By Goldie Blumenstyk The Chronicle of Higher Education. April 12, 20116.

Texto completo

LibGen o Library Genesis es un motor de búsqueda que permite el libre acceso a artículos científicos y libros (generalmente académicos; en menor proporción de ficción). Posee contenido libre en formatos PDF, PUB, MOBI, etc. accesible en portales de numerosas editoriales académicas como Oxford UP, Cambridge UP, Elsevier ScienceDirect, Springer, etc.

En 2015 el sitio se vio envuelto en una disputa legal con la editorial Elsevier, quien le acusaba de proporcionar acceso a sus artículos y libros que infringía los derechos de autor.la página LibGen esta registrada en Rusia y Ámsterdam, por lo que no está claro que legislación se debería aplicar al caso.  LibGen esta bloqueada por proveedores de internet en Reino Unido, pero tales bloqueos DNS hacen poco para evitar el acceso a ella. En octubre de 2015 una corte del distrito de Nueva York ordenó que el dominio libgen.org fuera dado de baja, pese a lo cual el sitio sigue accesible a través de otros dominios alternativos.

Sci-hub es un repositorio y página web de más de 47,000,000 artículos académicos o «papers» científicos.Diariamente se suben nuevos papers mediante un servidor proxy del dominio .edu. Sci-Hub fue fundado por Alexandra Elbakyan de Kazajistán el 5 de septiembre de 2011, como reacción en contra del alto coste de compra de los papers académicos, típicamente $US30 por cada artículo tras un paywall. La editorial académica Elsevier ha presentado una querella en Nueva York alegando infracciones de derechos de autor por parte de Sci-Hub

«… Las editoriales universitarias se han dado cuenta de que en las últimas semanas cientos de copias no autorizadas y, en algunos casos, miles de sus libros están disponibles en los sitios web piratas, por su parte las autoridades todavía están planteando la forma de afrontar este problema. Varios editoriales dijeron que querían asegúrese de que cualquier postura que tomen contra la piratería no se perciba como un ataque contra el movimiento de acceso abierto que está ganando popularidad entre algunos académicos y bibliotecarios. También parece que aún pocos editores han notificado formalmente a sus autores que las copias digitales de sus libros están disponibles gratuitamente en un sitio web ilícito … el sitio Sci-Hub, es una colección no autorizada de artículos científicos de revistas creadas por Alexandra Elbakyan, una estudiante graduada en Kazajstán. Mientras que el funcionamiento no están del todo claro, varios directores de editoriales  dijeron que creían Sci-Hub era la herramienta que también alimenta a la base de datos Library Genesis. El pasado año se había ordenado el cierre de ambos sitios como resultado de una demanda presentada por un editor de una revista comercial del grupo Elsevier, ya que casi 500 de sus títulos fueron listados en el sitio Library Genesis. El sitio también enumera más de 800 libros de Johns Hopkins University Press, casi 2.000 de Harvard University Press, y más de 4.800 en el MIT Press. Más de 17.000 artículos de todas las editoriales universitarias de Oxford University Press están en el sitio, pero no se pudo determinar de inmediato si ese recuento coincide también con algunas de las 380 revistas que publica. Richard Brown, director de Georgetown University Press, que publica unos 40 libros nuevos al año, dijo que la editoral de Georgetown ha publicado 85 de sus monografías disponibles en versiones de acceso abierto, pero «tenemos que seguir apoyándonos en las ventas de parte de nuestros productos para que el modelo pueda ser autosostenible». Aproximadamente 200 de sus libros están en el sitio pirata.

Guía Práctica para la Elaboración de Bibliografías: Estilo Vancouver

26381693320_f602e71b43_n_d

Guía Práctica para la Elaboración de Bibliografías: Estilo Vancouver Curso Académico 2014 – 2015 [e-Book]  Zaragoza, Universidad San Jorge (USJ). Facultad de Ciencias de la Salud.

Texto completo

Existen diversas versiones de citación en estilo Vancouver. Esta guía pretende ser una herramienta sencilla de citación e introducción de referencias bibliográficas para los estudiantes de la Facultad de Ciencias de la Salud de la Universidad San Jorge (USJ). El comienzo de cualquier trabajo de investigación marca el principio de un proceso sistemático de recogida de datos acerca de las fuentes consultadas. Estos datos serán esenciales a la hora de introducir referencias precisas y localizar la información recogida en una fuente citada previamente.