Archivo de la categoría: Investigación

Indicadores de medición del impacto de las citas bibliográficas

 

Indicators

Citation Performance Indicators — A Very Short Introduction
By PHIL DAVIS. Scholary Kitchen may 15, 201710

Texto completo

Phil Davis acaba de publicar en The Scholarly Kitchen un post en el que proporciona un breve resumen de los principales indicadores de citas utilizados hoy en día. Se trata de una publicación divulgativa, pero muy aclaratoria, no tanto de interés para bibliometras, como para el conocimiento por parte de investigadores, bibliotecarios y público en general. No se pretende que sea exhaustivo, ni se pretende opinar sobre el indicador que es mejor

Los indicadores son parámetros de medición que permite dar seguimiento y evaluar el cumplimiento de los objetivos de la actividad institucional respecto del logro o resultado en la entrega de bienes o servicios.

Lo más importante de un buen indicador es que tiene que tener una estrecha conexión teórica con la construcción subyacente que intenta medir. Un buen indicador simplifica los datos subyacentes, es fiable en sus informes y proporciona transparencia a los datos subyacentes.

Por último, cualquier discusión de los indicadores de desempeño invita a opiniones contrastadas tales como su uso indebido, abuso, implicaciones sociales, culturales y políticas que el alguna manera son ajenas al propio indicador.

Davis estructura los indicadores en tres grupos en función del diseño del algoritmo en el que se basa el indicador:

  1. Indicadores basados ​​en la ratio  se construye sobre el mismo modelo que el factor de impacto, dividiendo las citas recibidas entre el número de documentos publicados por la revista.
  2. Indicadores basados ​​en la gama (portfolio) calculan una puntuación basada en un conjunto clasificado de documentos.
  3. Indicadores basados ​​en la red, busca medir la influencia dentro de una red de citas mayor.

 

 

Indicadores basados en la ratio

Impact Factor: Total de citas en un año dado a todos los trabajos publicados en los últimos 2 años divididos por el número total de artículos y reseñas publicadas en los últimos 2 años. PROS: Fórmula sencilla con datos históricos. CONTRAS: el periodo de publicación de 2 años es demasiado corta para la mayoría de las disciplinas. PRODUCTOR: Clarivate (anteriormente Thomson Reuters), publicado anualmente en junio.

Impact Factor (5-yr): Abarca un periodo de publicación de 5 años en lugar de 2. PROS: La métrica preferida en campos en los que el ciclo de vida de la citación largo, por ejemplo, ciencias sociales. PRODUCTOR: Clarivate, publicado anualmente en junio.

CiteScore: Citas en un año dado a todos los documentos publicados en los últimos 3 años divididos por el número total de documentos publicados en los últimos 3 años. PROS: No intenta clasificar y limitar por tipo de artículo; Basado en un conjunto de datos Scopus más amplio; Recurso libre. CONTRAS: Preconcebido para las revistas que publican editoriales, noticias, cartas, etc.. PRODUCTOR: Elsevier, basado en los datos de Scopus, actualizado mensualmente.

Impact per Publication (IPP): Similar al Factor de Impacto con diferencias notables: 3 años. Periodo de publicación de 3 años; Incluye sólo citas a artículos clasificados como artículo,actas de conferencia o revisiones; Basado en un conjunto de datos Scopus. PROS: Periodo de análisis más largo; Las citas se limitan a aquellos documentos contados en el denominador. CONTRAS: Al igual que el factor de impacto, definir cual es el tipo de artículo correcto puede ser problemático. PRODUCTOR: CWTS, Universidad de Leiden, basada en los datos de Scopus, publicados cada mes de junio.

Source-Normalized Impact per Paper (SNIP): Similar a IPP, pero las puntuaciones de citas que se normalizan para tener en cuenta las diferencias entre los campos científicos, donde el campo está determinado por el conjunto de documentos que citan esa revista. PROS: Puede comparar el rendimiento de la revista entre entre disciplinas y campos. CONTRAS: La normalización hace que el indicador sea menos transparente. PRODUCTOR: CWTS, Universidad de Leiden para Elsevier, publicada cada mes de junio.

Indicadores basados ​​en la gama

H-index: Una medida de la cantidad y el rendimiento de un autor individual. Un autor con un índice de h habrá publicado h artículos, cada uno de los cuales ha sido citado por lo menos h veces. Si el índice h de un autor es 21, quiere decir que tiene almenos 21 documentos que se han citado 21 veces PROS: Mide el rendimiento profesional; No influenciado por valores atípicos (documentos altamente citados). CONTRAS: Dependiente del campo; Ignora el orden de la autoría; Aumenta con la edad y productividad del autor; Sensible a la autocitación, especialmente en Google Scholar. PRODUCTOR: Descrito por el cinetífico aleman J. E. Hirsch, muchas fuentes calculan los valores del índice h para los autores individuales.

h-5 : Variación del índice h que se limita a artículos publicados en los últimos 5 años. Utilizado por Google Scholar para comparar el rendimiento de la revista. PROS: Permite comparar autores jóvenes con autores más antiguos. CONTRAS: Dependiente del campo; Ignora el orden de la autoría en la publicación; Sensibles a la autocitación y al juego, especialmente en Google Scholar. Google Scholar también utiliza h5-median, que pretende reducir el sesgo de tamaño. PRODUCTOR: Google Académico. Publicado anualmente en junio.

Indicadores basados en la red

Eigenfactor: Mide la influencia de una revista en una red de citas. El cálculo de las puntuaciones se basa en la centralidad de los vectores propios, calculada a través de la ponderación iterativa, de manera que las citas de una revista tienen más influencia que otras. PROS: Ofrece una métrica que refleja de forma más clara la influencia científica como un entorno determinado. CONTRAS: Computacionalmente complejo, no fácilmente replicable. PRODUCTOR: Clarivate (anteriormente Thomson Reuters), publicado anualmente en junio.

Scimago Journal & Country Rank (SJCR): Similar al Eigenfactor pero calculado sobre la base de datos de Scopus. SJR asigna puntuaciones relativas a todas las fuentes en una red de citas. Su metodología se inspira en el algoritmo de Google PageRank, en que no todas las citas son iguales. Una fuente transfiere su propio «prestigio», o estado, a otra fuente a través del acto de citarlo. Una citación de una fuente con una SJR relativamente alta vale más que una citación de una fuente con una SJR más baja. PROS.  SJR permite al usuario clasificar su propio conjunto de fuentes personalizadas, independientemente de sus campos temáticos. PRODUCTOR: Elsevier, publicado anualmente en junio.

Relative Citation Ratio (RCR): Una métrica de citas normalizadas para artículos basados ​​en la base de datos PubMed del NIH. Un campo se define por las referencias en los artículos co-citado con el documento de interés. PROS: Permite que cada artículo sea definido por su propia cita En lugar de basarse en la clasificación de campos externos. CONS: Sensible a citas interdisciplinarias y revistas multidisciplinarias. El RCR depende del Factor de Impacto para ponderar las revistas que figuran en las referencias. PRODUCTORA: NIH.

 

 

 

 

Kit de curación de datos a lo largo de todo el ciclo vital de los datos

1

Hudson-Vitale, C., H. Imker, et al. [e-Book]  SPEC Kit 354: Data Curation (May 2017). Chicago, ACRL, 2017.

Texto completo

Más contenidos sobre 

La Association of Research Libraries (ARL) ha publicado Data Curation, SPEC Kit 354, un análisis de la infraestructura que las instituciones miembros de ARL están utilizando para el manejo activo y continuo de datos en todo su ciclo de vida y la utilidad que tiene para actividades académicas y académicas.

Este kit de SPEC explora la infraestructura que las instituciones miembros de ARL están usando para la recuperación de datos, cuáles servicios de recuperación de datos se ofrecen, quiénes pueden usarlos, qué disciplinas demandan más servicios, niveles de intervención del personal de biblioteca, políticas y flujos de trabajo y los desafíos que implica apoyar estas actividades.

Cómo escribir textos académicos

libro-completo-como-escribir-textos-academicos-peso-reducido-1-638

Francisco Moreno C., Norma Marthe Z., Luis Alberto Rebolledo S.. Cómo escribir textos académicos. Barranquilla: Uninorte, 2010

Texto completo

Los universitarios, los académicos y, sobre todo, los investigadores que publican, necesitan escribir textos de acuerdo con normas internacionales. Este libro versa sobre la escritura de textos según normas interna­cionales de la American Psychological Association (APA), del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), de la ModernLanguage Association (MLA), de VANCOUVER y del Instituto Colombiano de Normas Técnicas (ICONTEC), que son de las más conocidas y empleadas en el mundo académico y científico de hoy.Presentamos un resumen de estas normas para servirles a diferentes lectores que necesitan aplicar en sus textos las normas de las publicaciones propias de su profesión.La primera parte orienta sobre la forma de escribir textos como resúmenes, relatorías, reseñas, informes de investigación, artículos científicos, ensayos y hojas de vida.La segunda parte trata sobre el diseño de dichos textos: búsqueda y recopilación de información, reglas para el diseño de cada una delas partes y normas nacionales e internacionales para la presentación de la lista de referencias y las citas en el texto.Creemos que estas dos unidades cubren el propósito de guiar al lector en el arduo camino de la escritura académica, que requiere dedicación, consulta, investigación, producción del texto y revisión.Esta obra es un homenaje a nuestro compañero y amigo Luis Alberto Rebolledo Santoro, fallecido cuando la escribíamos

Cómo crear y diseñar aplicaciones de datos enriquecidos

34442151471_cffe2c4bcf_o_d

Kleppmann, M. (2017). [e-Book] Learn to Design and Build Better Data-Rich Applications . Sebastopol, California, O’Really, 2017

Texto completo

Hoy en día, los datos son el mayor activo para las empresas, pero sólo si pueden aprovecharlos eficazmente. Sin embargo su gestión no es tarea sencilla, ya que consume gran cantidad de recursos. Este libro tiene como objetivo ayudar a aprender a diseñar y construir aplicaciones de gestión de datos enriquecidos El libro se estructura en dos capítulos; por un lado se expone una visión general de los requisitos y consideraciones clave para la creación de aplicaciones ricas en datos y por uno una mirada detallada a los enfoques y herramientas para la creación de aplicaciones que utilizan flujos de datos en tiempo real.

Actas del Quinto Taller sobre Recuperación de Información Bibliométrica Mejorada (BIR)

ecir2017

Proceedings of the Fifth Workshop on Bibliometric-enhanced Information Retrieval (BIR)
co-located with the 39th European Conference on Information Retrieval (ECIR 2017)

Ver actas anteriores

BIR workshops at ECIR 2014

ECIR 2015

ECIR 2016

JCDL 2016

 

Las técnicas bibliométricas aún no se utilizan ampliamente para mejorar los procesos de recuperación en los sistemas de búsqueda, aunque ofrecen efectos de valor añadido para los usuarios. En este taller se explora temáticas tales como el modelado estadístico de la investigación, análisis de red de la red de coautoría, o como los sistemas gráficos de citas simples, puede mejorar los servicios de recuperación para comunidades específicas, así como para grandes colecciones de dominio cruzado como Mendeley. Este taller tiene como objetivo aumentar la conciencia sobre la relación entre la recuperación de información (IR) y la bibliometría / scientometrics, y crear un terreno común para la incorporación de servicios bibliométricos mejorados en la recuperación a través de los motores de búsqueda científicos.

 

Table of Contents

Full papers

Poster papers

La revisión por pares en la Gestión de Datos de Investigación

Using Computer

What Constitutes Peer Review of Data? A Survey of Peer Review Guidelines

The Scholary Kitchen

By Tood A. Carpenter, april 11, 2017

Texto completo

El intercambio de datos de investigación ha explotado en la última década, y cada vez más publicaciones y organizaciones están poniendo en práctica políticas que requieren la publicación de datos de investigación. Durante la última década, el número de revistas que aceptan datos ha aumentado, al igual que el número y el alcance de los repositorios que recogen y comparten datos de investigación.  Durante los últimos años , el ritmo de publicación de datos aumentó considerablemente. Como indica el estudio «Public Availability of Published Research Data in High-Impact Journals«, el número de conjuntos de datos que se comparten anualmente ha aumentado en más del 400% de 2011 a 2015, y parece probable que este ritmo se mantendrá o incrementará en los próximos años.

Un elemento central que distingue una publicación científica de una publicación que no lo es, es el hecho de que exista un proceso de revisión por pares que avale que los contenidos allí expuestos son académicos y han sido validados por un comité de expertos. A medida que aumenta la disponibilidad de datos de investigación, es importante preguntar si estos datos son revisados ​​por pares.  Pero, ¿qué constituye la revisión por pares de los datos de la investigación? ¿Cuáles son las prácticas existentes relacionadas con la revisión por pares de los conjuntos de datos de investigación? Dado que varias revistas se centran específicamente en la revisión y publicación de conjuntos de datos, la revisión de sus políticas parece un lugar apropiado para comenzar a evaluar como sería la práctica de revisar y publicar datos.

La revisión por pares de los datos es similar a la revisión por pares de un artículo, pero incluye muchos peculiaridades que hacen que el proceso sea mucho más complicado. En primer lugar, un revisor tiene que lidiar con la complejidad general de un conjunto de datos de investigación que pueden tener diferentes procedenicas y objetivos. A menudo, los datos pasan por una variedad de pasos de pre-procesamiento y limpieza de errores que deben monitorearse y rastrearse. Algunos conjuntos de datos están cambiando constantemente y se agregan más datos a lo largo del tiempo, por lo que la pregunta debe hacerse, ¿cada nuevo estudio basado en un conjunto de datos dado necesita una nueva revisión o podría aplicarse una revisión anterior? Para llevar a cabo un análisis adecuado, se debe considerar la metodología de la recopilación de datos, un examen que puede ser tan profundo como describir la calibración. Incluso después de que se ensambla un conjunto de datos, el análisis puede variar significativamente según el software utilizado para procesarlo. La revisión de un conjunto de datos probablemente requeriría un examen del código de software utilizado para procesar los datos también. Todos estos criterios crean más trabajo para los revisores.

En la práctica algunos repositorios como DRYAD hacen revisión de datos, pero la mayoría no. En el caso de las revistas que aceptan la publicación de conjuntos de datos requieren al menos un examen superficial superficial de los datos asociados con sus documentos. , También, una serie de revistas de datos se centran exclusivamente en el intercambio de conjuntos de datos de investigación. Esas publicaciones explícitamente proporcionan revisión por pares antes de la publicación de los datos.

En primer lugar, la cohesión editorial es todavía muy importante en la publicación de revistas y esto también se aplica a las nuevas revistas de datos. Esta cohesión ayuda de alguna manera al descubrimiento y  a la experiencia de revisión por pares, pero podría limitar las oportunidades de hacer una análisis más novedoso de los conjuntos de datos. Más importante que la consistencia interna y la revisión precisa del conjunto de datos es un enfoque en la apertura y disponibilidad de los datos en sí. Las oportunidades de reutilización, los enlaces a los repositorios públicos y las descripciones de cómo acceder a los datos son de importancia significativa. Esto podría considerarse como poner en práctica la noción de que «reutilización». En general, si los datos son de calidad suficiente para ser reutilizados, se aprueba una revisión por pares posterior a la publicación.

Leer completo

¿Cómo será la revisión por pares en 2030?

 

spotonscribe2-620x342

Burley, R. and E. Moylan (2017). [e-Book] What might peer review look like in 2030? A report from BioMed Central and Digital Science. Digital Science and BioMed Central.

Texto completo

¿Puede la tecnología hacer que la revisión por pares sea más rápida y más fácil? ¿Aumentará la transparencia el hecho de que la revisión por pares sea más ética? ¿Debería preverse la capacitación del revisor? ¿Cómo afectará la creciente presencia e importancia de los repositorios de ciencia abierta en la revisión y publicación? ¿El crowdsourcing hará que el proceso de invitar a los revisores sea más electivo? ¿Los avances en la inteligencia artificial harán que el futuro de la revisión sea completamente diferente? ¿Hay un papel para el artículo vivo? ¿Cómo podemos reconocer que aporta cada revisor a un trabajo de investigación?

La revisión por pares presenta una de las mayores oportunidades y desafíos para avanzar en el descubrimiento científico. Durante los últimos 350 años varios han existido varios métodos de revisión por pares, aunque formalmente su utilización se generaliza desde la década de 1960. A pesar de todos sus defectos percibidos -lentitud, ineficiencia, sesgos y abusos- la revisión por pares conserva su papel fundamental en la validación de los resultados de la investigación, normalmente antes, pero también después de la publicación.

Aunque durante los últimos años se han dado una serie de avances en la revisión por pares -incluyendo nuevos modelos y mejoras a los sistemas existentes-, el cambio verdaderamente transformador no ha sido ampliamente adoptado.

En noviembre de 2016, SpotOn London preguntó «¿Cómo sería la revisión de pares en 2030?» Con una conferencia de un día patrocinada por BioMed Central y Digital Science. El objetivo era reunir a individuos de diversas comunidades, incluyendo la de los propios investigadores, editores, financiadores, expertos en comunicación científica, expertos en tecnologías políticos para colaborar en formas factibles e innovadoras en mejorar la revisión por pares.

El informe destaca algunas recomendaciones para la mejora de la revisión por pares en el futuro

  • Encontrar e inventar nuevas formas de identificar, verificar e invitar a los revisores, centrándose en la correspondencia estrecha de la experiencia con la investigación que se está revisando para aumentar la captación. La inteligencia artificial podría ser una herramienta valiosa para el futuro de la revisión científica
  • Fomentar una mayor diversidad en el grupo de evaluadores (incluyendo investigadores de carrera temprana, investigadores de diferentes regiones y mujeres). Los editores, en particular, podrían aumentar la concienciación e integrar la participación de más mujeres en las actividades de evaluación.
  • Experimentar con diferentes y nuevos modelos de revisión por pares, particularmente aquellos que aumentan la transparencia.
  • Invertir en programas de capacitación de revisores para asegurarse de que la próxima generación de revisores esté equipada para proporcionar información valiosa dentro de las pautas reconocidas.
  • Trabajar hacia soluciones entre editoriales que mejoren la eficiencia y beneficien a todas las partes interesadas. La revisión por pares podría hacer que el proceso de publicación sea más eficiente para todos los involucrados.
  • Financiadores, instituciones y editores deben trabajar juntos para identificar maneras de reconocer a los revisores y reconocer su trabajo.
  • Experimentar con el uso de tecnología innovadora para apoyar y mejorar el proceso de revisión por pares, incluyendo maneras automatizadas de identificar inconsistencias que son difíciles de detectar para los revisores.

 

 

Herramientas sociales para la investigación científica

socia-research

McMahon, T. M., et al. (2012). «Social awareness tools for science research.» D-Lib Magazine 18(3). http://www.dlib.org/dlib/march12/mcmahon/03mcmahon.html

Texto

La conciencia de la importancia de lo social y las herramientas de participación en redes sociales se están desarrollando rápidamente y están en continua evolución., no sólo entre el público en general, también  están ganando popularidad en un número cada vez mayor de profesionales, incluyendo la investigación académica. Existen herramientas de sensibilización social de los investigadores científicos que facilitan la colaboración, ayudan a manejar referencias, y ofrecen opciones para presentar los resultados de nuevas maneras. Este artículo discute las herramientas., la evaluación y su comprensión.

DataCite: localizar, identificar y citar datos de investigación con confianza.

datacite_logo

https://www.datacite.org/

DataCite es una organización global sin fines de lucro líder que proporciona identificadores persistentes (DOIs) para datos de investigación. Su objetivo es ayudar a la comunidad de investigación a localizar, identificar y citar datos de investigación con confianza.

DataCite es una organización internacional sin ánimo de lucro cuyo objetivo es mejorar la cita de datos con el fin de:

  • Facilitar el acceso a los datos de investigación en Internet
  • Aumentar la aceptación de los datos de investigación como contribuciones legítimas y citable a los registros académicos
  • El archivado de datos de soporte que permitirá que los resultados sean verificados y reutilizados para nuevos estudios en el futuro.

 

DataCite apoya la creación y asignación de identificadores DOI y la asignación de los metadatos que lo acompañan. Ofrece servicios que apoyo a la búsqueda y el descubrimiento de contenidos de investigación. Y promueve la cita de datos y la promoción a través de la  construcción de materiales divulgativos entre la comunidad de investigadores.

DataCite tienen como prioridad hacer que los datos de investigación sean visibles y accesibles. Y colabora con una red global para proporcionar apoyo a los investigadores, centros de datos, editores de revistas y agencias de financiamiento.

Evaluación de la investigación

evaluaciondelainvestigacion

Monográfico de la lista de distribución InfoDoc sobre Evaluación de la Investigación

Ver Monográfico

 Ver más monográficos:

MONOGRÁFICOS SOBRE BYD

Para recibir la información en tu correo

suscribete a InfoDoc

o al nuevo canal de telegram @universoabierto