Archivo de la etiqueta: Altmetrics

Guía de uso de métricas alternativas de Elsevier

Elsevier Research Intelligence Usage Guidebook Version 1.01 |[e-Book]   March 2015, Elsevier.

Texto completo

 

Esta guía complementa la anteriormente publicada SciVal Metrics Guidebook proporcionando consejos prácticos sobre los datos de uso y el uso apropiado de múltiples métricas en el análisis de la investigación.

Los datos de uso se generan a partir de las interacciones que se producen sobre la información académica en línea. Estos datos tienen información sobre el interés e impacto social de los productos de la investigación, y son una pieza importante para tener una mejor información y percepción del impacto de la investigación en el mundo académico y en la sociedad. La importancia de la inteligencia de investigación basada en la inteligencia de fuentes de datos múltiples de Investigación tiene como objetivo entender, lo más completamente posible, el impacto de una entidad en el mundo. Esta entidad puede ser, por ejemplo, una sola publicación o un conjunto de varias publicaciones, un investigador o un equipo o una red, un área de investigación, una institución o un país, o la investigación financiada por un donante en particular. Cualquiera que sea la entidad, su impacto total es multidimensional, y es producto de la combinación de muchos datos diferentes y los resultados, como la productividad, la frecuencia con la que se ha leído y citado, o la importancia de la investigación para el mundo empresarial y el impacto en la sociedad.

Sin embargo la disponibilidad de los datos de uso de los productos de investigación en línea en un fenómeno relativamente reciente, y las métricas derivadas de los datos de uso aún no son comunes. Esta guía proporciona información detallada sobre qué métricas de uso son valiosos, cómo se calculan las métricas y cómo seleccionar las métricas apropiadas para ayudar a construir una imagen más completa del impacto de la investigación.

Integración de medidas Altmetrics en Zotero

 

 

Una de las grandes ventajas que tienen el gestor de referencias bibliográficas Mendeley frente a sus competidores como Zotero, es que genera medidas almétricas de las veces que se ha compartido una referencia bibliográfica con otros investigadores, lo que proporcionan una idea de la influencia de ese documento, ya que si ha la referencia ha sido compartida cientos o incluso miles de veces por parte otros investigadores, quiere decir que se trata de un documento de nuestro área de investigación que debemos tener en cuenta, ya que ha interesado a muchos de nuestros colegas que trabajan en esa misma disciplina; y además esto quiere decir que esos investigadores han incorporado esa referencia a su base de datos personal en su dinámica natural de trabajo, con la intención de leerlo o citarlo en algún momento en sus trabajos de investigación. Todo esto quiere decir que Mendeley ofrece mayor visibilidad y contribuye a la mejora de la reputación digital de los investigadores que otros gestores de referencias similares como Zotero. Es así porque Mendeley fue concebido desde su creación en 2008 por Jan Reichelt, Victor Henning y Paul. Foeckler Mendeley como el Last.fm de la investigación, una red social de radio vía Internet para la recomendación de música con perfiles personales y estadísticas de uso.

.

En verde la veces que se ha compartido un documento en Mendeley

.

Pero además, Mendeley también ofrece estadísticas detalladas sobre en que disciplinas ha sido compartido ese documento, estatus académico del que lo compartió, ya que herramientas como Altmetric.com pondera la puntuación otorgada a ese documento por el tipo de persona que hace la cita, ya que no tienen la misma importancia ser citado por un estudiante que por un doctor, e incluso también da detalles del ámbito de influencia geográfica de quienes han compartido la referencia bibliográfica, lo proporciona una idea de la influencia internacional de la investigación.

Datos estadísticos detallados de Mendeley

.

Hace unos días comentábamos en Universo Abierto que el principal reto para la aplicación de métricas alternativas de medición científica es la consistencia en los datos, en este post comentábamos un estudio en el que se destacaba que los recuentos de lectores de Mendeley fueron muy similares entre los distintos agregadores almétricos, ya que los los datos proceden directamente de Mendeley. Pero sin embargo entre los resultados de recuento de tweets y comentarios de Facebook había diferencias enormes respecto a la recopilación y notificación de estas métricas. entre Altmetric.com y Lagotto la aplicación de código abierto utilizada por Plos Almetrics.

.

Rosco de Almetric.com con puntuaciones por recurso

.

En estos días Zotero ha anunciado en su blog que está estudiando y experimentando para incorporar medidas almétricas a su herramienta de gestión de citas bibliográficas. Desde el pasado año la Universidad de Montreal y la Universidad de Indiana, han venido financiando una investigación de la Fundación Alfred P. Sloan, para analizar los lectores de fuentes de referencia a través de una gama de plataformas para permitir la investigación bibliométrica en los datos de Zotero a través de su API.

La primera parte de esta subvención implicaba la agregación de datos anónimos de las bibliotecas. El conjunto de datos inicial se limita a elementos con número DOI, los datos también incluye títulos, creadores y año, así como enlaces a las bibliotecas que contienen los artículos. Además se está empezando el proceso de hacer que los datos estén disponible de forma libre para el público, a partir de Impactstory y Altmetric.com, organizaciones que se han ofrecido para llevar a cabo el análisis preliminar.

Altmetric.com está interesado en cualquier comunicación que implique el uso o difusión de resultados de investigación, por lo que además de analizar el conjunto de datos inicial, están muy interesados en añadir la próxima API de Zotero a su herramienta de trabajo. El análisis que hizo esta empresa reveló que aproximadamente el 60% de los artículos que tenía al menos una cita en Zotero se habían mencionado en al menos otro lugar de los recopilados por Altmetric, tales como sitios de medios o de noticias sociales. Por lo que el equipo Altmetric se mostró muy complaciente de encontrar tan alta cobertura, lo que apunta a la diversidad de uso de Zotero, aunque se necesitan más investigaciones para determinar la distribución de los artículos en todas las disciplinas. Esto implica que los datos que puede aportar Zotero al proyecto Almetric, serán de gran utilidad para comprender el impacto social de la comunicación académica.

Sobre la base de esta colaboración inicial, los desarrolladores de Zotero están verificando y perfeccionar el proceso de agregación para comenzar el lanzamiento de una API que permitirá disponer de datos bibliométricos a partir de las interacciones en la comunicación científica y su impacto a través del ecosistema Zotero.

Transformación de la comunicación científica

Transformation of Scholarly Communications. Research Library Issues, no. 287 (2015): ARL 2015

Descargar

ARL ha publicado Research Library Issues (RLI) no. 287,, un informe en el que Rikk Mulligan ofrece una visión general de la historia de la comunicación académica desde sus inicios en el siglo XVII hasta las innovaciones más recientes en la edición digital e híbrida.

Part I: Context and Background (pages 2-6)

Se ofrece una breve descripción de los antecedentes y el contexto para enmarcar la formación de las primeras revistas académicas y monografías, el rápido crecimiento de las publicaciones académicas después de la Segunda Guerra Mundial, y los obstáculos más recientes que enfrentan la publicación en serie y el libro en los últimos  30 años, con más atención a los cambios derivados de la invención de la World Wide Web.

Part II: Journal Articles and Short-Form Scholarship (pages 7-16)

El segundo artículo analiza con más detalle el papel de la revista y el artículo académico, los experimentos en la digitalización para proporcionar acceso en línea que comienza con JSTOR y Project Muse en la década de 1990, y las innovaciones más recientes para satisfacer la creciente demanda de un acceso más amplio y más abierto a artículos de revistas.

Part III: Long-Form Scholarship: Monographs and Scholarly Books (pages 17-25)

La tercera pieza examina formatos más largos de investigación. En este artículo se enmarca la crisis en la monografía junto con las respuestas que incluyen libros digitalizados, ePubs origen digital, y los esfuerzos actuales para intentar formas alternativas de financiamiento y para fortalecer la infraestructura de novedades editoriales y de soporte electrónico en formato que promuevan una mayor detectabilidad, accesibilidad, y el uso de los foratos más extensos.

Estos artículos proporcionan la base para las iniciativas estratégicas de ARL que se centran en la promoción de gran alcance y publicación sostenible de investigación. Esta publicación servirá de base al debate que se llevará a cabo en el mes de otoño con el objeto de describir las formas emergentes de la investigación digital con la finalidad de mejorar y ampliar estos modos de discurso mucho más allá de su estado actual.

 

Las principales tendencias ACRL en bibliotecas universitarias

[]

Committee, A. R. P. a. R. “Top trends in academic libraries: A review of the trends and issues affecting academic libraries in higher education.” C&RL News vol., n. June 2014 (2014).  pp. 294-302.

Texto completo

Las principales tendencias en las bibliotecas universitarias: una revisión de las tendencias y las cuestiones que afectan a las bibliotecas académicas en la educación superior. Cada dos años, el Comité de Planificación y Análisis de Investigación ACRL produce un documento sobre las tendencias principales en las bibliotecas universitarias. Este año, después de numerosas discusiones y revisiones de la literatura, el comité decidió centrarse en un tema único para las tendencias actuales: una colaboración más profunda.

El comité consideró distintos ejemplos de colaboraciones en la educación superior que estimó que podrían beneficiarse y enriquecerse con la participación de la biblioteca en las mismas. Se destacan las siguientes grandes categorías dentro de la educación superior: datos, servicios con dispositivos digitales neutros, evolución hacia la apertura en la educación superior, iniciativas de éxito de los estudiantes, el aprendizaje basado en competencias, altmetrics y humanidades digitales.

1. Datos

Cada vez se pone mayor énfasis en la apertura de datos, gestión de datos planos, y en la investigación en torno a  ”Big data”, lo que está impulsando a las instituciones académicas a desarrollar y desplegar nuevas iniciativas.  El análisis de las necesidades de datos de los investigadores a través de dominios institucionales puede requerir de la participación de la biblioteca para identificar y conectar a los investigadores en todas las unidades funcionales, tanto formales e informales para compartir, analizar, y reutilizar datos. De hecho algunas universidades están lanzando programas de postgrado para preparar profesionales de las carreras relacionadas con el análisis y la manipulación de grandes volúmenes de datos.

Funciones de cooperación entre investigadores, repositorios, y editores de revistas. Unos y otros almacenan datos asociados a sus publicaciones específicas, proporciona linformación sobne acceso y opciones para los investigadores con el objeto de localizar datos para su verificación. Esta tendencia se mantendrá para disponer de más datos en abierto para compartir, lo que permitirá que los datos citados en publicaciones revisadas por expertos puedan ser reutilizados y se analicen de manera más eficiente . Esto puede crear nuevos desafíos a los bibliotecarios a cerca de cuestiones relacionadas con la atribución, la citación, e identificadores únicos.

Asociaciones relacionados con el descubrimiento y la reutilización de los datos. Editores y agregadores de revistas también se ven sometidos a la presión para poner su contenido disponible en línea para proyectos de minería de textos y recolección de documentos a gran escala.

2. Servicios a través de soluciones neutras con dispositivos digitales

El mercado de dispositivos móviles se expandió y diversificó en los últimos dos años, con un número creciente de proveedores. En enero de 2014, el Centro de Investigación Pew informó que más del 42% de los adultos estadounidenses poseen una tableta (un 8% más que cuatro meses antes). Además, el estudio ECAR 2013 destacó las altas expectativas que tienen los estudiantes en torno el acceso móvil a los materiales. Incluso el informe “Horizon” que marca los plazos de las tendencias en la enseñanza superior considera que las tabletas se incorporarán a la enseñanza en un plazo de  ”un año o menos”  por lo cual es importante que las bibliotecas diseñen servicios digitales para equipos de escritorio y móviles.

También esta tendencia incluye a proveedores de bases de datos y plataformas que deberán ofrecer soluciones neutras para todo tipo de dispositivos, ya que la mayoría actualmente sólo ofrecen sitios móviles y / o aplicaciones. Rompiendo esta tendencia OCLC, pondrá en marcha una nueva interfaz de descubrimiento con WorldCat Discovery (fusión de WorldCat Local y First Search) que se ajusta a cualquier tamaño de pantalla.

3. Evolución de la apertura de la educación superior

Con dos grandes tendencias. “Open access” y “Open education”. Además de apoyar el pago o reembolso de los gastos de las publicaciones de acceso abierto, las bibliotecas universitarias están empezando a proporcionar apoyo financiero a la promoción de recursos educativos abiertos (OER). La tendencia a la promoción de REA (OER) podría beneficiarse de la participación de la biblioteca en cursos masivos abiertos en línea (MOOCs). Aunque todavía no existe una dirección clara o cronograma de cómo va a llevarse a cabo. Se estima que se están ofreciendo 500 MOOCs a través de más de 100 universidades de renombre, un modelo de negocio aceptable y sostenible para su desarrollo y despliegue. Cathy Davidson señala que proporcionar instrucción en línea  requiere de una inversión inicial importante, si bien a la larga va a ser beneficioso económicamente para la organización.

En este paisaje rápidamente cambiante, los investigadores seguirán necesitando apoyo y orientación de profesionales de la información para el cumplimiento de los requisitos necesarios para una mejor visibilidad de los recursos en acceso abierto; y el desarrollo y promoción de los REA. Además, los bibliotecarios tendrán que estar al tanto de liderar el camino en la colaboración con sus instituciones, editoriales, organizaciones y otras bibliotecas universitarias para el desarrollo de nuevos mecanismos de financiación e incentivos para apoyar la participación de los investigadores en el autoarchivo de las la publicación en acceso abierto.

El creciente interés por los resultados (por ejemplo, el aprendizaje del estudiante, la retención, la persistencia, y la evaluación) sobre los insumos (por ejemplo, la matriculación,) y el énfasis continuo en la demostración de estos resultados, tendrá un impacto en las bibliotecas universitarias en el futuro. La importancia de la biblioteca en el éxito del estudiante, la persistencia, y la retención ya ha sido discutida en la literatura profesional. La cultura de orientar los objetivos a los resultados requerirá que las bibliotecas encuentren mejores maneras de documentar estas conexiones.

4. Aprendizaje basado en competencias

Aunque el concepto aprendizaje realizado fuera de las aulas de la universidad no es nuevo, está poniendose de actualidad cuando aumentan las presiones sobre las instituciones de educación superior para llevar a cabo, innovar, y reducir los costos para los estudiantes en tiempos de crisis, lo cual ha traído un interés renovado en el desarrollo de modelos alternativos para la evaluación de aprendizaje. El resultado es un mayor énfasis en el aprendizaje basado en las competencias, que puede proporcionar nuevas oportunidades para que las bibliotecas; consideren como un objetivo primordial integrar la alfabetización en información, y las habilidades y estrategias de investigación en el tejido de los currículos institucionales.

Para ello se están utilizando modelos para documentar el aprendizaje de los estudiantes. Algunos modelos enlazan competencias con las horas de crédito, mientras que otros exploran la “evaluación directa” independientemente de las hora por crédito u otras métricas tradicionales. Algunas alternativas a estos modelos tienen en cuenta incluir en tal medición los objetivos básicos a conseguir.

5. Altmetrics

Un entorno digital en expansión impulsa cambios en los criterios para medir el impacto de la investigación y la erudición. Muchos de estos trabajos de investigación se conocen o se publica en la web, es importante disponer de un método para el seguimiento del impacto de su trabajo en estos nuevos medios de comunicación. Altmetrics, abreviatura de métricas alternativas, es una metodología de desarrollo rápido para medir el impacto de los trabajos académicos y de investigación publicados en el web. Los defensores de altmetrics sostienen que la utilización de las citas de artículos y los factores de impacto de las revistas como medios exclusivos para la evaluación de la investigación no miden con suficiente precisión el impacto de los artículos basados en la web o la comunicación académica entre los científicos, académicos e investigadores. Altmetrics, pues, complementa a los medios tradicionales que miden el impacto académico y el proceso de revisión por pares. Estas métricas son cada vez más importantes para conocer como los investigadores utilizan los programas de Internet para organizar y compartir sus artículos con otros colegas a través de Mendeley, Impact Story, y PLOS, OA, o sitios de redes sociales para compartir artículos científicos tales como Academia.edu y ResearchGate.

Bibliotecas y bibliotecarios poseen la cualificación necesaria para proporcionar en su instrucción el uso apropiado de altmetrics para promover a la comunidad académica global. el impacto y el valor de la investigación producida en sus instituciones  De acuerdo con un informe sobre NISO altmetrics, la gran cantidad de resultados de Google que citan tanto “Libguides” y “altmetrics” “indican que las bibliotecas ya están incorporando información altmetrica  en los recursos para la comunicación científica, el impacto y la gestión de citas,” pero el informe llega a la conclusión de que “la eficacia de estas guías sigue siendo desconocida.

En 2013, NISO comenzó un ambicioso proyecto para desarrollar estándares y prácticas para altmetrics. Potencialmente, altmetrics podrían tener relación con la evaluación del profesorado y proceso de acreditación proporcionando a los comités de revisión información complementaria sobre la investigación a efectos sociales o interdisciplinares, y también podría ser potencialmente considerado para la concesión y dotación de premios. Si los investigadores pueden demostrar que su investigación está generando una gran cantidad de interacción en la comunidad académica, tal información puede proporcionar una ventaja en este entorno de crisis financiera para la obtención de proyectos de investigación.

6. Humanidades digitales

“DH (humanidades digitales) se puede entender como el lugar donde las se cruzan las las metodologías de investigación de las humanidades tradicionales con los nuevos medios de comunicación y tecnologías digitales .” Las bibliotecas universitarias pueden jugar un papel clave en el apoyo de la investigación en esta área mediante la creación de asociaciones y colaboraciones de ayuda a conectarse con otras unidades del campus, para implementar y llevar a cabo el desarrollo de las humanidades digitales en la investigación. Con el aumento de oportunidades para involucrar a los estudiantes de pregrado en una experiencia única de investigación, las bibliotecas universitarias pueden identificar, organizar los recursos y colaborar con la facultad de humanidades para enseñar las habilidades necesarias para la investigación para llegar al objetivo de tener unas humanidades más eficaces.

Algunas bibliotecas académicas han respondido mediante la creación de nuevos servicios para apoyar la producción académica digital y otras se centra en la asociación y la colaboración con otras unidades de sus instituciones para apoyar el desarrollo de nuevas metodologías de investigación. Por lo que las bibliotecas universitarias pueden jugar un papel clave al asociarse y colaborar con los estudiosos de las humanidades en los proyectos de las humanidades digitales.

Altmetrics en el Contexto


altmetricsAltmetrics in Context. The Canadian Association of Research Libraries (CARL), 2013

Descargar

 

Como la comunicación académica toma nuevas formas y se mueve cada vez más en los entornos de acceso digital y abierto, el valor de los nuevos tipos de métricas es cada vez más importante para la comunidad de investigadores. Esto está creando debate y discusión y, en algunas disciplinas, con acalorado debate.

Altmetrics reporta el impacto de una amplia gama de productos de la investigación, incluyendo los conjuntos de datos y artículos. Este documento, disponible en el sitio web CARL, ofrece una breve introducción a este nuevo campo de la evaluación de impacto de la investigación y anima a los investigadores a utilizar altmetrics en su trabajo.

altmetric-donut1

Los indicadores de impacto son cálculos concebidos para cuantificar la influencia de la investigación y la actividad investigadora. La cuantificación del impacto de la investigación es una preocupación que tiene hace tiempo los investigadores, instituciones de investigación y financiadores. La premisa básica de métricas de citas tradicionales es que los recuentos de citación se correlacionan directamente con el impacto académico de revistas, artículos y autores. Estos cálculos se utilizan comúnmente como un indicador importante para la revisión de los departamentos, la acfreditación y la promoción, la asignación de fondos y la eficacia de las decisiones de financiación, la contratación, así como las clasificaciones institucionales.

Número de citas y una gama de otros indicadores calculados están incluidos en muchas bases de datos comerciales. Los tres proveedores principales de sistemas de medición más extensas son Thomson Reuters, Elsevier y Google. Históricamente la gran mayoría de las métricas ha sido calculado en el nivel de la revista. Estos cálculos incluyen, por ejemplo, Factor de Impacto, Eigenfactor ®, SCImago Journal Rank (SJR) y h5-índice. El factor de impacto de Thomson Reuters ha sido considerado el estándar de oro para muchos años.

El número de citas y una gama de otros indicadores calculados están incluidos en muchas bases de datos comerciales. Los tres proveedores principales de sistemas de medición más conocidos son Thomson Reuters, Elsevier y Google. Históricamente la gran mayoría de las métricas ha sido calculado en el nivel de las revistas. Estos cálculos incluyen, por ejemplo, Factor de Impacto, Eigenfactor ®, SCImago Journal Rank (SJR) y h5-índice. Factor de impacto de Thomson Reuters ha sido considerado el estándar de oro durante muchos años.

Ha habido menos métricas para medir el impacto en el nivel del artículo o el autor. El indicador más comúnmente que se utiliza tanto para el artículo y/o el autor ha sido el de recuento de citas. Para los indicadores a nivel de autor, el índice h (ver Hirsch, 2005) ha ganado popularidad debido a su facilidad de uso y eficacia en todas las disciplinas. Las métricas de nivel de artículo están experimentando una transformación que les ha extendido más allá de los proveedores comerciales tradicionales. El cálculo de este nivel de métricas incorpora múltiples fuentes de datos, tanto tradicionales como emergentes. Los datos recogidos no se limita a calcular métricas de nivel de artículo, pero tiene el potencial de ser utilizados para generar métricas de revistas y autor.

Como la comunicación académica toma nuevas formas y se mueve cada vez más a los lugares de acceso digitales y abiertos, el valor de los nuevos tipos de métricas es cada vez más importante para la comunidad de investigadores. Está causando la discusión y, en algunos campos, un acalorado debate.

Altmetrics (también conocido como métricas alternativas o altmetrics) tiene una historia relativamente corta como campo de estudio, que se remonta al año 2010, cuando fue acuñado el nombre. El término en sí se utiliza para describir las fuentes de datos emergentes o nuevas para las métricas de nivel de elemento, por ejemplo, Twitter, Facebook o blogs. Dónde métricas de nivel de artículo (ALMS) se refiere a los datos recogidos para determinar el impacto de los artículos individuales, altmetrics se refiere a las fuentes de datos (por ejemplo, un tweet), en lugar de los datos en sí (por ejemplo, el número de veces que un artículo ha sido twitteado).

Altmetrics reporta el impacto de una mayor gama de productos de investigación, incluyendo presentaciones de diapositivas, los conjuntos de datos y artículos. En “Altmetrics: a manifiesto”, hay una buena introducción a cómo altmetrics pueden enriquecer más la reflexión tradicional sobre el impacto y el valor a través de multitud de fuentes de revisión por pares y métricas de fuentes de datos basadas en la web. La  más actual descripción de la relación entre altmetrics y las métricas a nivel de artículo se puede encontrar en el artículoArticle-Level Metrics ­ A SPARC Primer

Servicios basados ??en la Web de todo tipo producen enormes cantidades de datos como resultado de su uso tanto de la actividad académica y pública . Algunos de estos datos hacen referencia a los objetos de la comunicación científica – artículos, libros, bases de datos, programas de ordenador, presentaciones, etc.

Las fuentes que aportan datos son diversas, creciendo en número, muchas son comerciales y sin fines de lucro, tales como las bases de datos (por ejemplo, Scopus, PubMed), redes sociales (como Facebook, Twitter), marcadores sociales (por ejemplo, CiteULike, Delicious), blogs, Wikipedia, presentación y colecciones de vídeos (por ejemplo, SlideShare, YouTube), repositorios de datos (por ejemplo, Dryad figshare) y herramientas de manejo de citas (por ejemplo Mendeley, Zotero).

Métricas de nivel de paquetes de servicios como informes Web integrados y herramientas basadas en la web, algunas gratuitas para el uso individual, mientras que otras tienen fines de lucro, y van dirigidas a un nivel institucional. Como tienen un rápido desarrollo.

Altmetrics complementa la actual gama de métricas, y para algunos investigadores pueden proporcionar información valiosa sobre las interacciones públicas de sus investigaciones. Algunas publicaciones científicas y bases en línea están experimentando con la incorporación de estos indicadores como contenido de valor añadido y para demostrar la relación existente entre el compromiso académico con el contenido.

http://farm6.staticflickr.com/5473/11389934053_5198513329_z_d.j

Article Level Metrics: altmetrics en Plos

Article Level Metrics (ALM) ofrecen un conjunto de métricas establecidas que miden el rendimiento general y alcance de los artículos de investigación publicados. Una manera confiable para medir la influencia y el alcance de los artículos de investigación. ALM hace un seguimiento de cómo un artículo está siendo leído, discutido y citado. Las Vistas y descargas inmediatas, así como la influencia del artículo. Una vez que el investigador disponga de esta información, puede utilizarla para construir su CV, su red o su carrera. Con ALM, se puede ver una colección de indicadores de impacto en tiempo real. Lo cual permite al investigador mantenerse al día del alcance y la influencia de su investigación y, a continuación, compartir esta información con sus colaboradores, el departamento académico, y sus financiadores. ALM tiene un sistema de recomendación en tiempo real y sistemas de filtrado colaborativo sincronizado a las necesidades del investigador, lo que le ayuda a navegar y descubrir el trabajo de otros en su campo,  nuevos descubrimientos de la investigación y los pesos del valor de la información presentada en la literatura de diferentes fuentes.
La información compilada por ALM incluye: una manera confiable para medir la influencia y el alcance de los artículos de investigación.incluyendo:
Tradicionalmente, el impacto de los artículos de investigación se ha medido a través de publicación en una determinada revista. Pero una visión más informativa es la que examina el desempeño general y el alcance de los propios artículos. Artículo a nivel métricas son un conjunto amplio de indicadores de impacto que permiten numerosas formas de evaluar  más relevantes en el campo en sí, incluyendo:
– Uso
– Citas
– Difusión y actividad de marcadores sociales
–  Actividad de discusión y clasificaciones
– Medios de comunicación y cobertura blog
Por medio de esta herramienta los investigadores pueden mantenerse al día de su trabajo publicado y compartir información sobre el impacto de sus publicaciones con colaboradores, proveedores de fondos, las instituciones y la comunidad científica en general. Estas métricas son también una poderosa manera de navegar y descubrir el trabajo de otros. Las métricas se pueden personalizar para satisfacer las necesidades de los investigadores, editores, responsables institucionales, o financiadores.
El conjunto de datos ALM completo , que se actualiza cada mes como un archivo csv., siempre está disponible gratuitamente en Internet para todos los artículos publicados PLOS.
La interfaz de programación de aplicaciones (API) para el artículo de nivel métrica es libre y accesible al público. Más de 150 desarrolladores ya han descargado la API para la reutilización de los datos, tales como determinar el impacto total de artículos utilizando datos agregados.

Altmetrics pueden no seguir siendo alternativa por mucho tiempo

[]

Mapa del Academic Ranking of World Universities (ARWU) o ranking de Shanghai

Las Agencias de Evaluación y entidades financieras necesitan una medida objetiva de la calidad de las publicaciones, Consecuentemente existe una demanda de medidas de este tipo. El Factor de Impacto (también conocido como Índice de impacto), es una medida de la importancia de una publicación científica. Cada año es calculada por el ISI o Institute for Scientific Information para aquellas publicaciones a las que da seguimiento, las cuales son publicadas en un informe de citas llamado Journal Citation Report. El Factor de Impacto tiene una influencia enorme, pero controvertida. Al ya tradicional Journal Citation Report del ISI se han ido sumando algunas otras alternativas bien en la forma de medir dicho impacto (Índice de Hirsch, Scimago Journal Rank), bien en la cobertura temática o la de procedencia geográfica de las revistas (IN-RECS, IN-RECJ, RESH, IHCD…).

El factor de impacto de una revista es la media de veces que en un año determinado fueron citados los artículos publicados por esta revista en los dos años anteriores. El FI tienen algunas ventajas que hay que considerar:  Su cobertura internacional amplia con más de 8400 publicaciones de 60 países, los resultados son publicados y disponibles (FEYCIT) y es fácil de usar y entender.

Por ejemplo, el artículo de Oliver H. Lowry, Nira J. Rosenbrough, A. Lewis Farr, Rose J. Randall, “Protein Measurement with the Folin Phenol Reagent,” The Journal of Biological Chemistry (JBC) 193: 265-275, 1951, está considerado el artículo más citado de toda la historia de la ciencia (según el ISI Web of Science 1945-2010). En julio de 2005 ya contaba con 293.328 citas. Sin embargo Albert Einstein,  ha sido citado a día de hoy sólo 6647 veces. La revista con mayor índice de impacto de todas es CA-A Cancer Journal for Clinicians (94,262). Este año España tiene 76 revistas con impacto (en 2009 tuvo 59 y en 2008 solo 37).

La Web of Science y su correspondiente factor de impacto  son insuficientes para la comprensión del impacto de los trabajos académicos de las regiones en desarrollo, pero en contraposición las métricas alternativos ofrecen una gran oportunidad para reorientar las estructuras de incentivos hacia los problemas que contribuyen al desarrollo, o al menos a las prioridades locales. Se ha escrito mucho sobre las limitaciones metodológica de los sistemas de medición del impacto de las publicaciones científicas, y son los académicos de las regiones en desarrollo los que están sufriendo las más graves consecuencias. Problemas derivados de los sesgos disciplinares, ya que en estos índices están más representadas las ciencias, que las humanidades y las ciencias sociales, además el comportamiento de los usos de cita y obsolescencia son muy distintos en unos y otros áreas. Quizás los 2 años de medición que tiene Web of Knowledge son suficientes para las ciencias por su alto índice de obsolescencia, pero no para el resto de áreas de conocimiento. Sesgos lingüísticos, fundamentalmente están representadas las lenguas anglosajonas respecto al resto; otras cuestión importantes son la relativa a las áreas geográficas representadas, que tienen que ver con los países más desarrollados, e incluso con los emergentes, ya que la política de aceptación de revistas en Web of Knowdlge si bien aparece establecida en su página y da unas pautas aparentemente claras, en la realidad no es tan transparente. Cada año Thomson Reuters evalúa aproximadamente 2.000 revistas para la inclusión de las mismas en Web of Science. En el este enlace podrá encontrar información sobre los criterios de selección que utiliza Thomson Reuters para la inclusión de revistas.

Una muestra de todo esto es un estudio de Kahn “A bibliometric study of highly cited reviews in the Science Citation Index expanded™.” sobre los documentos muy citados en Journal Citation Report, estudia aquellos que se citaron al menos 1000 veces desde su publicación hasta 2011 (un total de 1,857), fueron identificados en la base de datos Science Citation Index Expanded ™ (Thomson Reuters, Nueva York) entre 1899 y 2011. Si se analiza la autoría, entre los autores más citados, en el 33% de los casos eran obras de un sólo autor, el 61 % eran de una sola institución, y el 83 % eran de un único país. Estados Unidos ocupa el primer lugar en los 6 indicadores. Los países de G7 (Estados Unidos, Reino Unido, Alemania, Canadá, Francia, Japón e Italia) fueron escenario de casi todas los documentos muy citados. Las 12 instituciones más productivas son de Estados Unidos con la Universidad de Harvard  y Texas como líderes. Revistas. Las 3 revistas más productivas fueron Chemical Reviews, Nature y Annual Review of Biochemistry.

El problema para las regiones en desarrollo se deben a la escasa representación de la investigación mundial en Web de Thomson Reuters of Science (WoS). La falta de investigación de las regiones en vías de desarrollo no es la falta de investigación, es la baja represntación en los índices oficiales. En América Latina, en 2012, sólo el 4% de revistas revisadas por pares fueron incluidos en WoS, un total de 242 de más de 5000; sin embarfo  SciELO y RedALyC , trabajando sólo con un subconjunto de estas 5.000 + revistas, han indexado más de medio millón de artículos en revistas regionales, principalmente de autores latinoamericanos. Thomson Reuters recientemente anunció una alianza con SciELO, en el que las 650 revistas en SciELO se indexarán y aparecen en la Web of Knowledge. (Alperin, Juan Pablo, 2014) El argumento a favor de esta tendencia ha sido siempre que la investigación del mundo en desarrollo no forma parte de la “corriente principal” o la ciencia “internacional”. Si bien también se podría argumentar en contra diciendo que WoS es un conjunto de datos insuficientes para comprender el impacto de las comunicaciones académicas de las regiones en desarrollo.

Por otra parte, los medios sociales están generando una influencia en los procesos de comunicación científica y en los hábitos y comportamientos de los investigadores de todas las disciplinas. La influencia generada por los medios sociales ha sido calificada como Investigación 2.0, Social Reference o Altmetrics. Almetrics recoge las menciones de artículos académicos de todas partes de la Web mediante la recopilación de menciones en los periódicos, blogs, redes sociales y otros sitios web. Algunas de estas herramientas como Almetric.com, en cuestión de minutos, permiten al autor disponer de los datos almétricos para mostrarlos en su plataforma o aplicación. Las métricas alternativas tienes algunas críticas relativas a la falta de uniformidad normalización de las estadísticas, posibilidades de manipulación de datos, y a que se trata de una simple medida de uso y no de influencia científica. Recientemente miembros del grupo EC3 de la universidad de Granada crearon un perfil falso en homenaje a dos de los más grandes ciclistas del panorama internacional que llamaron “Marco Alberto Pantani-Contador” para demostrar que era sencillo manipular estas herramientas. El texto, carente de sentido alguno, fue copiado y pegado de la página web del grupo de investigación al que pertenecen, y traducido al inglés con Google Translator. Los investigadores dividieron a su vez el falso paper en seis artículos, citando en cada uno de ellos otros 129 trabajos científicos. El resultado no se hizo esperar: los tres autores materiales de este experimento, a quienes Pantani-Contador citaba en su falso artículo, vieron cómo aumentaban considerablemente sus citas en Google Scholar.

Algo se está moviendo en el contexto:

  • Hoy en día incluso multinacionales de la información científica como Elsevier, que ha sido durante mucho tiempo un defensor a ultranza de la informetría robusta está interesándose en la comprensión de cómo se pueden utilizar estas nuevas medidas en relación con los datos de uso y citación, para proporcionar nuevos indicadores significativos para la comunidad investigadora.
  • También en la 14ª edición del Ranking Web de Repositorios, en su última versión de 2014 incluye mediciones Altmetrics de las siguientes fuentes en el indicador Visibilidad: Academia, Facebook, LinkedIn, Mendeley, ResearchGate, Slideshare, Twitter, Wikipedia (todas las ediciones), Wikipedia (versión Inglés) y YouTube (25%)
  • Otro ejemplo es Plos con Un ejemplo de estos sistemas es el modelo ALMs de PLoS Article Level Metrics que  se encargan de hacer la recopilación de estas evidencias tales como su cobertura en blogs, cobertura en noticas y presentarla a sus lectores.
  • Una herramienta similar en Altmetric.com que bajo suscripción muestra el impacto de la investigación a sus autores y lectores de modo muy gráfico y nuevo. Monitorear, buscar y medir todas las conversaciones acerca de los artículos de una revista, así como los publicados por sus competidores. Recoge las menciones de artículos académicos de todas partes de la Web mediante la recopilación de menciones en los periódicos, blogs, redes sociales y otros sitios web. En cuestión de minutos, permite al autor disponer de los datos Altmetrics para mostrarlos en su plataforma o aplicación. El algoritmo Altmetric.com calcula una puntuación global teniendo en cuenta el volumen, la fuente y el autor en función de las menciones que recibe un documento. Esto incluye las menciones de artículos académicos sobre los sitios de medios sociales (por ejemplo, Twitter, Facebook, Pinterest, Google+), blogs científicos, muchos medios de comunicación convencionales, incluyendo The New York Times, TheGuardian, las publicaciones en idiomas distintos al inglés, como Die Zeit y Le Monde y publicaciones de interés especial como Scientific American y New Scientist, sitios de revisión por pares de referencia como Publons.

Todos estos signos indican que altmetrics pueden no seguir siendo alternativa por mucho tiempo. lo que es especialmente atractivo para aquellas disciplinas y áreas que tradicionalmente han sido excluidas del análisis bibliométrico, ya que no están suficientemente representadas en bases de datos como Web of Science (WoS) o Scopus, como las ciencias sociales y las humanidades.

Un documento muy interesante a este respecto es Users, narcissism and control – tracking the impact of scholarly publications in the 21st century, de SURFfoundation publicado en 2012, y cuyo cuyo objetivo es contribuir al desarrollo de herramientas más útiles para la comunidad científica y académica. Este programa debe abordar por lo menos las siguientes herramientas: F1000 , Microsoft Academic Research, Total-Impact, PlosONE altmetrics, y Google Scholar Citations , Mendeley. El libro informa sobre el seguimiento del impacto de las publicaciones académicas en el siglo 21 que debe de tener en cuenta cualquier investigador. muy recomendable para potenciar la investigación.

Bibliografía:

Juan Pablo Alperin “ Altmetrics could enable scholarship from developing countries to receive due recognition” LSE, 2014 Ho, Y.-S. and M.

Kahn “A bibliometric study of highly cited reviews in the Science Citation Index expanded™.” Journal of the Association for Information Science and Technology vol. 65, n. 2 (2014).  pp. 372-385.

Delgado López-Cózar, Emilio; Robinson?García, Nicolás; Torres?Salinas Daniel. The Google Scholar Experiment: how to index false papers and manipulate bibliometric indicators. Journal of the American Society for Information Science and Technology (2013). Article first published online: 11 NOV 2013. DOI: 10.1002/asi.23056.

Delgado López?Cózar, E.; Robinson?García, Nicolás; Torres?Salinas Daniel.  Science Communication: Flawed Citation Indexing. Science 6 December 2013: Vol 342, no. 6163, p. 1169. DOI: 10.1126/science.342.6163.1169-b.

Plum Analythics : portal de métricas de investigación de Ebsco

Plum (Cereza) Analytics es el primer proveedor de Altmetrics que va más allá de las métricas de artículos y realiza un seguimiento de todos los productos de la investigación en cualquier forma, proporcionando una poderosa herramienta que aumenta la capacidad de la métrica tradicional.

Plum Analytics es el proveedor de PlumX ™, un producto que ofrece una imagen más completa de la investigación y responde a preguntas sobre el impacto de investigación para cualquier persona, incluidos los investigadores, bibliotecarios, administradores y financiadores. PlumX  reúne a las métricas a través de cinco categorías de uso,a través de la captura de la citas en los medios sociales.

Los documentos incluyen: artículos, entradas del blog, capítulos de libros, libros, casos, ensayos  clínicos,comunicaciones a congresos, conjuntos de datos, cifras, subvenciones, entrevistas, cartas, medios de comunicación, patentes, posters, presentaciones, código fuente, tesis / disertaciones, vídeos, páginas web.

PlumX ofrece una nueva manera de ver la influencia que tiene los investigadores, grupos e instituciones. Un carrusel de datos en la parte superior de la página permite acceder fácilmente a los tipos de producción y a los mejores indicadores recogidos en 5 categorías: citaciones, uso, menciona, captura, y medios sociales.

[]

PlumX ofrece visualizaciones para ver el impacto relativo de la producción de un investigador. También se puede ver el impacto de un departamento, laboratorio, revista, asunto o cualquier agrupación que tenga sentido para una organización. Al hacer clic en el botón “Ver Sunburst” se visualizala tabla de rayos de sol que permite ver por “Tipo de documento” e “Impacto”.

[]

De este modo proporcionando un circuito de retroalimentación para que los investigadores puedan ver qué plataformas son más apropiadas en cuanto al impacto para difundir la investigación futura.

[]

 

 

También es posible añadir widgets de PlumX a su repositorio institucional, perfiles de investigadores,  sitios web del departamento, o blogs, etc.

Declaración de San Francisco sobre Evaluación de la Investigación (DORA)

[]

La Declaración de San Francisco sobre Evaluación de la Investigación (DORA)

Descargar

La Declaración de San Francisco sobre Evaluación de la Investigación (DORA), impulsada por la Sociedad Americana de Biología Celular (BCSV), junto con un grupo de directores y editores de revistas científicas, reconoce la necesidad de mejorar la forma en que se evalúan los resultados de la investigación científica . El grupo se reunió en diciembre de 2012 durante la reunión anual  BCSV en San Francisco e hizo circular un proyecto de declaración entre los diversos grupos de interés.Se trata de una iniciativa mundial que abarca todas las disciplinas académicas. Animamos a las personas y organizaciones que están preocupados por la evaluación adecuada de la investigación científica a que firmen DORA.

Poniendo ciencia en la evaluación de la investigación. 

Hay una necesidad apremiante de mejorar la forma en que los resultados de la investigación científica son evaluados por las agencias de financiación, instituciones académicas y otros. Para solucionar este problema, un grupo de directores y de editores de revistas académicas se reunió durante la Reunión Anual de la Sociedad Americana de Biología Celular (BCSV) en San Francisco, CA, el 16 de diciembre de 2012. El grupo desarrolló una serie de recomendaciones, conocidas como la Declaración de San Francisco de Evaluación de la Investigación. Invitamos a los interesados en todas las disciplinas científicas que indiquen su apoyo al añadir  sus nombres a la presente Declaración.

Los resultados de la investigación científica son muchos y variados, que incluyen: artículos de investigación que reportan nuevos conocimientos, datos, reactivos y software, propiedad intelectual, así como jóvenes científicos altamente capacitados. Los organismos de financiación, las instituciones que emplean los científicos y los propios científicos, necesitan, y es necesario, evaluar la calidad e impacto de la producción científica. Por tanto, es imperativo que la producción científica se mida con precisión y se evalúe con prudencia. El índice de impacto de las revistas se utiliza con frecuencia como parámetro primario con el que comparar la producción científica de las personas y las instituciones. El índice de impacto de revistas, según los cálculos de Thomson Reuters, fue creado originalmente como una herramienta para ayudar a los bibliotecarios a identificar revistas que comprar, no como una medida de la calidad científica de la investigación en un artículo. Con esto en mente, es importante entender que el índice de impacto tiene una serie de deficiencias bien documentadas como herramienta para la evaluación de la investigación. Estas limitaciones incluyen:

a) la distribución de citas en revistas está muy sesgada [1-3],
b) las propiedades del índice de impacto son específicas del campo científico considerado: es una combinación de varios tipos de artículos, muy diversos, incluyendo artículos de investigación primaria y opiniones [1, 4];
c) Los índice de impacto se pueden manipular (o “trastear”) por la política editorial [5],y d) los datos utilizados para el cálculo de los índices de impacto de las revistas no son ni transparentes ni están abiertamente a disposición del público [4 , 6, 7].

A continuación se hace una serie de recomendaciones para mejorar la forma en que se evalúa la calidad de los resultados de la investigación. Los resultados que no sean artículos de investigación crecerán en importancia en la evaluación de la eficacia de la investigación en el futuro, pero el trabajo de investigación revisado por pares continuará como un resultado central para informar sobre la evaluación de la investigación. Por lo tanto, nuestras recomendaciones se centran principalmente en las prácticas relativas a los artículos de investigación publicados en revistas revisadas por pares, pero pueden y deben ampliarse mediante el reconocimiento de productos adicionales, tales como bases de datos, como resultados de la investigación importantes. Estas recomendaciones están dirigidas a los organismos de financiación, las instituciones académicas, las revistas, las organizaciones que suministran métricas, y a los investigadores individuales.

Una serie de temas recorren estas recomendaciones: 

• la necesidad de eliminar el uso de métricas basadas en revistas, tales como índice de impacto de revistas, en la financiación, en los nombramientos, y en las consideraciones de promoción;

• la necesidad de evaluar la investigación por sus propios méritos y no en base a la revista en la que se publica la investigación, y

• la necesidad de aprovechar las oportunidades que ofrece la publicación en línea (como relajar los límites innecesarios en el número de palabras, figuras y referencias en artículos, y la exploración de nuevos indicadores de la importancia y el impacto).

Reconocemos que muchas agencias de financiación, instituciones, editores e investigadores ya están alentando prácticas mejoradas en la evaluación de la investigación. Estas medidas están empezando a aumentar el impulso hacia enfoques más complejos y significativos para la evaluación de investigación que ahora se puede realizar y que son adoptadas por todos los principales grupos involucrados.

Los firmantes de la Declaración de San Francisco en la evaluación de la investigación apoyan la adopción de las siguientes prácticas en la evaluación de la investigación.

Recomendación General. 

1. No utilice métricas basadas en revistas, tales como índices de impacto de revistas, como una medida sustitutiva de la calidad de los artículos de investigación individuales, con el fin de evaluar las contribuciones de un científico, o en la contratación, promoción, o en las decisiones de financiación.

Para los organismos de financiación. 

2. Sea explícito acerca de los criterios utilizados en la evaluación de la productividad científica de los solicitantes de subvenciones y resaltar claramente, sobre todo para los investigadores en fase inicial, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.

3. A efectos de la evaluación de la investigación, considerare el valor y el impacto de los resultados de la investigación (incluidos los conjuntos de datos y software), además de las publicaciones de investigación, y considerare una amplia gama de medidas de impacto que incluya indicadores cualitativos del impacto de la investigación, como la influencia sobre la política y la práctica.

Para las instituciones. 

4. Sea explícito acerca de los criterios utilizados para llegar a la contratación, la tenencia y las decisiones de promoción, destacando con claridad, sobre todo para los investigadores en fase inicial, que el contenido científico de un artículo es mucho más importante que las métricas de publicación o la identidad de la revista en la que fue publicado.

5. A efectos de la evaluación de la investigación, considerare el valor y el impacto de los resultados de la investigación (incluidos los conjuntos de datos y software), además de las publicaciones de investigación, y considerare una amplia gama de medidas de impacto que incluya indicadores cualitativos del impacto de la investigación, tales como la influencia sobre la política y la práctica.

Para editoriales. 

6. Reduzca en gran medida el énfasis en la revista del índice de impacto como una herramienta de promoción, idealmente dejando de promover el índice de impacto o mediante la presentación de la métrica en el contexto de una variedad de métricas basadas en revistas (por ejemplo, índice de impacto de 5 años, Eigenfactores [8] , SCImago [9], índice h, editorial y tiempos de publicación, etc) que proporcionan una visión más rica del rendimiento de la revista.

7. Ponga a disposición una serie de indicadores a nivel de artículo para fomentar un cambio hacia la evaluación basada en el contenido científico del artículo en lugar de métricas sobre la revista en que fue publicado.

8. Fomente prácticas de autoría responsables y la provisión de información sobre las contribuciones específicas de cada autor.

9. Si la revista es de libre acceso o suscripción, elimine todas las limitaciones de reutilización en las listas de referencias de artículos de investigación, que estarán disponibles bajo la licencia “Creative Commons Public Domain Dedication” [10].

10. Elimine o reduzca las restricciones en el número de referencias en artículos de investigación y, en su caso, dirija la citación de la literatura primaria en favor de las revisiones con el fin de dar crédito al grupo(s) que registró por primera vez un hallazgo.

Para las organizaciones que proveen métricas. 

11. Sea abierto y transparente, proporcionando datos y métodos utilizados para el cálculo de todos los indicadores.

12. Proporcione los datos bajo una licencia que permita la reutilización sin restricciones, y facilite el acceso a los datos de cálculo, siempre que sea posible.

13. Tenga claro que la manipulación inadecuada de los indicadores no será tolerada; sea explícito acerca de lo que constituye la manipulación inadecuada y qué medidas se tomarán para combatir esto.

14. Cuando se utilizan, agregan o comparan indicadores tenga en cuenta las diferencias existentes entre los distintos tipos de artículos (por ejemplo, revisiones frente a artículos de investigación), y en las diferentes áreas científicas.

Para los investigadores. 

15. Cuando participe en los comités de toma de decisiones sobre la financiación, la contratación, la tenencia, o la promoción, realice evaluaciones basadas en el contenido científico en lugar de en las métricas de publicación.

16. Siempre que sea necesario, cite la literatura primaria en que las observaciones fueron por primera vez publicadas con el fin de dar el crédito a quien merece ese crédito.

17. Use una variedad de métricas de artículos e indicadores sobre las declaraciones personales o de apoyo, como evidencia del impacto de los artículos publicados individuales y otros productos de la investigación [11].

18. Cambie las prácticas de evaluación de la investigación que se basan inadecuadamente en los índices de impacto y promueva y enseñe las mejores prácticas que se centran en el valor y la influencia de los resultados específicos de la investigación.

Referencias

1. Adler, R., Ewing, J., and Taylor, P. (2008) Citation statistics. A report from the International Mathematical Union. www.mathunion.org/publications/report/citationstatistics0
2. Seglen, P.O. (1997) Why the impact factor of journals should not be used for evaluating research. BMJ 314, 498–502.
3. Editorial (2005). Not so deep impact. Nature 435, 1003–1004.
4. Vanclay, J.K. (2012) Impact Factor: Outdated artefact or stepping-stone to journal certification. Scientometrics 92, 211–238.
5. The PLoS Medicine Editors (2006). The impact factor game. PLoS Med 3(6): e291 doi:10.1371/journal.pmed.0030291.
6. Rossner, M., Van Epps, H., Hill, E. (2007). Show me the data. J. Cell Biol. 179, 1091–1092.
7. Rossner M., Van Epps H., and Hill E. (2008). Irreproducible results: A response to Thomson Scientific. J. Cell Biol. 180, 254–255.
8. http://www.eigenfactor.org/
9. http://www.scimagojr.com/
10. http://opencitations.wordpress.com/2013/01/03/open-letter-to-publishers
11. http://altmetrics.org/tools/

CiteUlike: Gestor de referencias sociales que incluye medidas altmétricas

 

Concepto y distintas herramientas. CiteULike. 

Como el título de la novela de Henry James, los gestores de referencias sociales dan “otra vuelta de tuerca” a las funciones tradicionales de los gestores de referencias, ya que unen a los programas de gestión de referencias las capacidades de las redes sociales. Realmente la idea parte de la funcionalidad de sitios que comparten enlaces de favoritos a páginas web (bookmarks) como es el caso de Delicious. Sin embargo el primer marcador social de enlaces carece de dos cuestiones básicas en relación al tratamiento de referencias bibliográficas, por una parte no recopila todos los metadatos asociados a un enlace, y por otro no genera un enlace permanente DOI/OpenURL, como si lo hace CiteULike.

CiteUlike y los índices almétricos

Sitios de medición del impacto social de la investigación como ImpacStory, Almetric.com Plum Analitics o Article Level Metrics Plos compilan la información de las veces que se ha compartido una referencia bibliográfica de una investigación en CiteUlike. Por lo que será importante para la visibilidad de un investigador tener las referencias de sus investigaciones en este canal.

[]

Los creadores de CiteUlike consideraron que el medio natural de la investigación científica era el entorno web, y que buena parte de los investigadores utilizaban el navegador  para documentarse y, por lo tanto, éste debía ser el medio natural para almacenar y gestionar las citas bibliográficas. El paso siguiente era generar un entorno compartido, es decir conocer lo que otros colegas están leyendo, y a su vez poder mostrar y recomendar a mis colegas lo que estoy leyendo. De esta manera se reduce el número de mensajes de correo del tipo “¿Has leído este artículo?”. Pero además permite conocer a otros investigadores con intereses comunes, con los que incluso se puede llegar a colaborar en trabajos de investigación.

CiteUlike es un servicio gratuito que actualmente almacena más de tres millones de citas de artículos científicos, incorporando a diario más de 5000 nuevos. Fue creado hace unos tres años por Richard Cameron en la Universidad de Manchester. CiteULike es un sistema abierto a cualquier persona que desea conservar, gestionar y compartir  referencias de documentos científicos y técnicos en internet, que se conservan como propias  pero que están visibles para todos, mediante un perfil público CiteULike y uno privado MyCiteULike.

[]

MyCiteUlike biblioteca personal. 

Tal y como consta en el apartado de preguntas más frecuentes FAQ, se trata de un servicio que ayuda al investigador a almacenar, organizar y compartir los documentos académicos que está leyendo, pues con un solo cliclos añade a su biblioteca personal. CiteUlike extrae los detalles de la cita, y lo único que tenemos que hacer es poner las etiquetas relativas al contenido de ese documento. De esa manera podemos ver que otros investigadores están leyendo lo mismo que nosotros leemos, y así conocer si otros documentos que les han interesado a ellos, pueden interesarnos a nosotros; con lo cual puedo hacer lo que llama una Lista de seguimientoo watchlist, para saber qué cosas nuevas están leyendo otros investigadores que leen artículos que me interesan a mi, y de esa manera estar continuamente al día.

CiteGeist nos permite seguir las referencias más populares de los últimos días. El índice de popularidad, es decir, cuantos autores han leído o recogido el artículo en su gestor personal, no es exactamente un valor cualitativo, pero sí es indicativo de que si un artículo lo tienen recopilado muchos investigadores es un documento que debemos conocer.


[]

CiteGeist el índice de popularidad de los artículos compartidos. 

Distintas formas de guardar referencias con CiteULike. 

Para operar con CiteULike lo primero que debes hacer es registrarte, existiendo tres posibilidades de añadir información

  • Desde CiteULike
  • Desde fuentes externas (Archiv, Amazón.. )
  • Importando datos en formato RIS

Desde CiteULike. 

Las referencias se capturan mediante un marcador de favoritos, que se instala fácilmente en el navegador y extrae los datos bibliográficos que aparecen en una página web. Al incorporarlas, el usuario las clasifica en áreas temáticas y les asigna un término de indización o etiqueta (tag). Para instalarlo vamos a Post to CiteULike, y con el botón derecho del ratón lo añadimos a favoritos en nuestro navegador. Cuando tenemos un articulo que nos interesa añadir, vamos a los vínculos de la barra de herramientas de nuestro navegador y picamos en Post to CiteULike

[]

Añadir información de un documento a CiteUlike con el botón Post to CiteUlike. 

Otra forma de añadir información desde CiteULike es hacerlo desde la opción Search, que nos buscará en las carpetas de otros investigadores que hayan reseñado ese artículo, o artículos sobre ese tema; de este modo podemos conocer otros investigadores que trabajan en un área de interés común. Para añadirlo entramos en el artículo y pulsamos sobre Copy para copiarlo en nuestro perfil privado MyCiteUlike; como hace habitualmente CiteULike nos pedirá que le asignemos etiquetas, y que consideremos si lo queremos dejar en consulta pública o privada, o enviarlo al Blog de nuestro Grupo para que otros colegas tengan noticia de su existencia. De la misma manera nos permite incluir un artículo externo si conocemos su ISBN, URL o DOI desde el perfil personal eligiendo la opción Post URL

Desde fuentes externas (Archiv, Amazón.. ). 

Las referencias también se pueden capturar e integrar desde fuentes aceptadas, que incluye una lista de importantes editores y distribuidores de contenidos abiertos y comerciales

[]
Fuentes compatibles con CiteULike. 

Exportar desde Blogs o Noticias. 

Servicios como addtoany permiten redifundir información por cualquier usuario que consulte una fuente, y así enviarlo a los gestores de referencias sociales como CiteULike, Connotea, etc.

Watchlist para estar al día. 

Las listas de seguimiento permiten conocer a otros usuarios con intereses comunes a los nuestros, y estar constantemente informado de los nuevos documentos que están leyendo, lo que nos ayudará a estar permanentemente al día. El procedimiento es muy simple, cuando navegamos por los artículos de un autor que dispone de etiquetas que nos interesan aparece un botón naranja Watch, que cuando lo pulsamos cambia a la opción de dejar de seguir Unwacht; a partir de este momento ya hemos hecho una watchlist que aparecerá en nuestro perfil en un cuadro, que podemos ampliar, donde van incluyéndose por orden cronológico las nuevas  referencias de otros investigadores a los que seguimos. Igualmente podemos suscribirnos desde esa watchlist a un canal RSS, o exportar esos datos en diferentes formatos RIS, BibText, PDF, RTF, text o Delicious.

Los grupos en CiteULike. 

CiteULike permite crear grupos de investigación en torno a un tema o un departamento con la finalidad de compartir las referencias entre sus miembros. Igualmente se puede hacer un blog del grupo.

Reutilizar contenidos. 

Desde el punto de vista del profesional de la documentación CiteULike proporciona una buena herramienta de apoyo para el desarrollo de servicios de información con reutilización de contenidos.

Antes hemos hablado de las posibilidades de exportar e importar datos con gran facilidad, y cuyos contenidos pueden sernos de utilidad para tenerlos en nuestro gestor de referencias personal, para efectuar las tareas de citación con los sistemasCite & Write de los gestores de referencias, o para generar bibliografías.

Si disponemos de un universo Netbives existen dos APIs  disponibles de CiteULike para Netvibes, una de búsqueda y otra  para incluir canales RSS.

[]

Otras posibilidades muy interesantes que proporciona CiteULike es hacer un comentario, o incluir una revisión al artículo.