Archivo de la etiqueta: Ranking

¿Más allá de los rankings universitarios? Generación de nuevos indicadores sobre las universidades mediante la vinculación de datos en plataformas abiertas

32559290781_8666bdeef6_o_d

Daraio, C. and A. Bonaccorsi «Beyond university rankings? Generating new indicators on universities by linking data in open platforms.» Journal of the Association for Information Science and Technology vol. 68, n. 2 (2017). pp. 508-529. http://dx.doi.org/10.1002/asi.23679

La necesidad de nuevos indicadores sobre las universidades está creciendo enormemente. Los gobiernos y los tomadores de decisiones a todos los niveles se enfrentan a las enormes oportunidades generadas por la disponibilidad de nuevos conocimientos e información y, simultáneamente, se ven presionados por restricciones presupuestarias estrictas. Los rankings universitarios, en particular, están atrayendo la atención de las políticas y los medios de comunicación, pero al mismo tiempo reciben duras críticas metodológicas.

Después de resumir las principales críticas a las clasificaciones, se analizan  dos tendencias en los requisitos de los usuarios para los indicadores; A saber, granularidad y referencias cruzadas. A continuación se sugiere que es necesario un cambio en el paradigma del diseño y producción de indicadores. El enfoque tradicional es aquel que aprovecha no sólo los datos existentes, sino que también sugiere una fuerte inversión para integrar las bases de datos existentes y crear indicadores adaptados. En el artículo se demuestra que tomando cono base el caso de las universidades europeas, cómo la integración de los datos existentes se puede desarrollar una plataforma de datos abierta que permite la construcción de nuevos indicadores.El poder del enfoque deriva de la capacidad de combinar fuentes heterogéneas de datos para generar indicadores que aborden una variedad de requisitos de los usuarios sin necesidad de diseñar indicadores de forma personalizada.

¿Para que sirven los rankings de evaluación científica?

rankings-image2

Bornmann, L. «On the function of university rankings.» Journal of the Association for Information Science and Technology vol. 65, n. 2 (2014). pp. 428-429. http://dx.doi.org/10.1002/asi.23019

La ciencia moderna es una ciencia de evaluación y evaluada. La calidad de la investigación no puede garantizarse sin una evaluación. De acuerdo con el fundador de la moderna sociología de la ciencia, Robert K. Merton (1973), una de las normas de la ciencia es el «escepticismo organizado«. Desde el mismo momento de nacimiento de las revistas científicas en el siglo XVII (Journal de Sçavants, 1665), se comenzó a utilizar el proceso de revisión por pares, aunque es a partir de los años 1980 y 1990 cuando empiezan a llevarse a cabo las evaluaciones basadas en indicadores si bien, en este proceso se han utilizado diferentes métodos y ha habido diferentes etapas para la evaluación de la investigación y la docencia (Daniel, Mittag, y Bornmann, 2007). El primer ranking universitario internacional (el llamado ranking de Shanghai) se publicó por primera vez en el año 2003 . Su uso tuvo una importante repercusión a escala mundial,cada año se publicaron las el ranking de las 500 mejores universidades, cuyos datos se basan en los indicadores de investigación de las universidades, ya sea como un ranking (las instituciones individuales clasifican de acuerdo a ciertos criterios) o como instituciones individuales evaluadas de acuerdo a ciertos criterios. La importancia de la clasificación o clasificaciones de hoy en día es evidente.

 

¿Cuáles son las 10 páginas web más visitadas del mundo y de España?

paginas-web-mas-visitadas-google

Esta es una lista de los 10  sitios web más visitados y buscados de Internet en el mundo entero, según los datos suministrados por Alexa el 26 de marzo de 2015. Alexa clasifica a los sitios web basándose en una combinación de páginas visitadas y de usuarios únicos del sitio. Alexa crea una lista de «sitios web top» basándose en este tiempo promedio de datos a lo largo de un período de tres meses y solo cuenta los nombres de dominio de nivel superior.

 

En esta misma página también podemos ver los sitios más visitados por países. En el caso de España estas son las webs más visitadas:

Mejores contenidos, mayor prestigio: adquisición de originales, evaluación y rankings

GUADALAJARA MËXICO

Mejores contenidos, mayor prestigio: adquisición de originales, evaluación y rankings

Julio Alonso Arévalo
Universidad de Salamanca (España)
alar@usal.es

VII Foro Internacional de Edición Universitaria y Académica. Feria Internacional del Libro de Guadalajara (FIL),
Martes 29 de noviembre de 11:45 a 13:00 horas.

PREZI

Texto completo

En el nuevo ecosistema informativo se están produciendo cambios profundos. Los medios sociales están modificando la forma de interactuar, presentar las ideas e información y juzgar la calidad de los contenidos y contribuciones. En los últimos años han surgido cientos de plataformas que permiten compartir libremente todo tipo de información y conectarnos a través de redes. Estas nuevas herramientas generan estadísticas de actividad e interacciones entre sus usuarios, tales como menciones, retweets, conversaciones, comentarios. .” A la par de estos cambios, la mayor parte de los investigadores han trasladado sus actividades de investigación a la web y con el éxito de los medios sociales esta situación se ha hecho más evidente, ya que estas herramientas tienen más potencialidad para desarrollar un rango mayor de influencia académica que los entornos tradicionales de publicación. Ello produce un reposicionamiento de todos los elementos que contribuyen a todo el proceso de investigación, por ello este entorno digital en expansión donde se producen nuevas interacciones científicas impulsa cambios en los criterios para medir el impacto de la investigación y erudición; de modo que es importante disponer de un método para el seguimiento del impacto de cualquier publicación en estos nuevos medios de comunicación.

problema

¿Cómo se enseña en Shanghai? Perspectivas y mejores prácticas del sistema educativo de más alto nivel mundial

 

9781464807909-pdf

 How Shanghai Does It: Insights and Lessons from the Highest-Ranking Education System in the World  [e-Book], The World Bank. 2016

Texto completo

PDF (3MB)

El sistema de educación básica de Shanghai ha llamado la atención significativa desde que se editan la Evaluación Internacional de Estudiantes (PISA), una evaluación global de las capacidades educativas con 15 años de antigüedad. Entre las 65 economías participantes en 2012, Shanghai-China ocupó el primer lugar en los tres dominios principales de PISA, es decir, las matemáticas, lectura y ciencias. Shanghai también se destaca por tener el porcentaje más alto del mundo de los «estudiantes resilientes estudiantes socio-económicamente desfavorecidos, que retoman sus estudios como los mejores. hiistóricamente Shanghai ha generado un intenso debate y diversas especulaciones en el campo del desarrollo de la educación internacional, y numerosos estudios se han llevado a cabo para desentrañar el misterio del sistema educativo de más alto nivel entodo el mundo.

Este documento es una interpretación más amplia, sistemática y en profundidad, en torno a las políticas y prácticas de la educación básica de Shanghai en comparación con otras. Este documento presenta un análisis en profundidad de cómo Shanghai obtuvo la mayor puntuación en las áreas de lectura, ciencias y matemáticas en PISA. En él documento se se analizan y destacan los puntos de referencia de las políticas clave en la educación básica de Shanghai, proporcionando evidencias en la medida en que estas políticas se han implementado en las escuelas, y explora cómo estas políticas han afectado a los resultados del aprendizaje.

El informe utiliza datos de PISA 2012 para analizar la variación de rendimiento de los estudiantes de Shanghai y examinar las variables escolares que pueden estar asociadas con cuestiones que van más allá de la formación del estudiante y la familia. También utiliza un enfoque de sistemas para los resultados, una herramienta de diagnóstico sobre los sistemas existentes y la evaluación comparativa, como marco organizativo y de recogida de datos. las encuestas en escuelas y otros centros de investigación existentes arrojan más luz sobre el impacto educativo y su aplicación. Si bien el informe trata de adoptar un enfoque de sistemas, se hace especial hincapié en los profesores, financiación de la educación, equilibrando la autonomía y la rendición de cuentas y evaluación de los alumnos.

Ranking de las bibliotecas universitarias españolas en la gestión del personal

recursos_humanos

Simón Martín, J., C. Simón, et al. «Ranking de las bibliotecas universitarias españolas en la gestión del personal» Revista española de documentación científica vol. 39, n. 1 (2016).

Texto completo

Los objetivos de este trabajo son dos. En primer lugar, identificar aquellas bibliotecas universitarias públicas españolas que durante los años 2008 y 2012 han sido las mejores en el ámbito de la eficiencia en su gestión del personal y que, por tanto, pueden ser consideradas como referentes en la mejora de la eficiencia; en segundo término comparar las diferencias existentes en la organización del personal entre las bibliotecas más ineficientes y las más eficientes en dicha área. El cálculo de la eficiencia se ha realizado mediante la técnica de análisis envolvente de datos (Data Envelopment Analisis-DEA); así mismo, para el establecimiento de un ranking entre las bibliotecas eficientes se han utilizado los métodos de contar el número de unidades de referencia, el cálculo de la super-eficiencia y la evaluación cruzada. Las bibliotecas analizadas muestran en su conjunto una eficiencia global y técnica pura alta. De entre las bibliotecas eficientes, dos de ellas ocupan el primer lugar de la clasificación en los dos años estudiados. Estas dos bibliotecas disponen de una organización del personal diferente a las dos consideradas como más ineficientes.

En la Tabla se muestra el resumen de los principales resultados de eficiencia, tanto bajo el supuesto de rendimientos constantes (CRS), como de rendimientos dependientes de la escala de funcionamiento (VRS) orientados a la minimización en el uso de inputs. Así mismo, se ha representado la eficiencia de escala de los años 2008 y 2012.

26653386924_dd45ec7246_b_d

Valores de eficiencia de las bibliotecas universitarias españolas en los años 2008 y 2012

Ver en tamaño mayor

Las 100 web de bibliotecas con más tráfico según datos de Alexa

 

alexa-grafico

Alexa.com provee información acerca de la cantidad de visitas que recibe un sitio web y los clasifica en un ranking. Alexa recoge información de los usuarios que tienen instalado Alexa Toolbar, lo cual le permite generar estadísticas acerca de la cantidad de visitas y de los enlaces relacionados.

Alexa también proporciona una gráfica donde se puede apreciar perfectamente el crecimiento/decrecimiento de las visitas a una página web, además de la información diaria (solo las 100 000 primeras páginas de la clasificación), media semanal y media de los últimos tres meses.

Alexa Internet fue fundada en 1996 por Brewster Kahle y Bruce Gilliat. El nombre fue elegido en homenaje a la Biblioteca de Alejandría,3 trazando un paralelo entre la mayor colección de conocimiento de la antigüedad y el potencial de internet. .Alexa Internet, Inc. es una compañía subsidiaria de Amazon.com con sede en California (Wikipedia)

yale-university-beinecke-rare-book-library-inside-2-540x346

En el siguiente gráfico Michael Schofield nos proporciona los datos de las 100 web de bibliotecas con mayor tráfico en el mundo.

Las 100 web de bibliotecas con más tráfico según datos de Alexa

Name URL
New York Public Library nypl.org
University of Texas Libraries lib.utexas.edu
Penn Libraries www.library.upenn.edu
University of Toronto Libraires library.utoronto.ca
University of Wisconsin-Madison Libraries library.wisc.edu
Cornell University Library library.cornell.edu
University of Minnesota Libraries lib.umn.edu
University of Illinois at Urbana-Champaign Library library.illinois.edu
University of Washington Libraries lib.washington.edu
Virginia Tech University Libraries lib.vt.edu
Vanderbilt Jean and Alexander Heard Library library.vanderbilt.edu
Yale University Library library.yale.edu
California Digital Library cdlib.org
Berkeley Library lib.berkeley.edu
Purdue University Libraries lib.purdue.edu
OhioLINK ohiolink.edu
NYU Libraries library.nyu.edu
Penn State University Libraries libraries.psu.edu
University of British Columbia Library library.ubc.ca
Duke University Libraries library.duke.edu
University of Iowa Libraries lib.uiowa.edu
University of Chicago Library lib.uchicago.edu
Boston Public Library bpl.org
Michigan State University Libraries lib.msu.edu
BYU Harold B. Lee Library lib.byu.edu
Rutgers University Libraries libraries.rutgers.edu
University of Massachusetts Amherst Libraries library.umass.edu
University of Maryland Libraries lib.umd.edu
Georgetown University Library library.georgetown.edu
University of Utah J. Willard Marriott Library lib.utah.edu
Texas A&M University Libraries library.tamu.edu
University of Alberta Libraries library.ualberta.ca
University of Arizona Libraries library.arizona.edu
University of Kansas Libraries lib.ku.edu
UCLA Library library.ucla.edu
Northwestern University Library www.library.northwestern.edu/
Brown University Library library.brown.edu/
Florida State University Libraries lib.fsu.edu
Colorado State University Libraries lib.colostate.edu
UC Santa Barbara Library library.ucsb.edu
Western University Libraries lib.uwo.ca
Columbia University Libraries library.columbia.edu
University of Cambridge Library www.lib.cam.ac.uk/
Ohio University Libraries www.library.ohiou.edu
University of Florida George A. Smathers Libraries cms.uflib.ufl.edu/
University of Rochester Libraries lib.rochester.edu
The Huntington huntington.org
University of Pittsburgh Library System library.pitt.edu
Ohio State University Libraries library.osu.edu
University ofGuelph Library lib.uoguelph.ca
UNC Chapel Hill Libraries library.unc.edu
University of Notre Dame Hesburgh Libraries library.nd.edu
Southern Illinois University Libraries lib.siu.edu
Miami University Libraries lib.miamioh.edu
Stony Brook University Libraries library.stonybrook.edu
University of Cincinnati Libraries libraries.uc.edu
Kent State University Libraries library.kent.edu
Princeton University Library library.princeton.edu
University of Hawaii at Manoa Library library.manoa.hawaii.edu
Biblioteka Narodowa bn.org.pl/
University of Tennessee Knoxville Libraries lib.utk.edu
University of Alabama Libraries lib.ua.edu
Bibliotheque de Universite Laval bibl.ulaval.ca
Queen’s University Library library.queensu.ca
UCSF Library library.ucsf.edu
Oklahoma State University Library library.okstate.edu
UC Santa Cruz Library library.ucsc.edu
Boston University Libraries bu.edu/library/
UC Riverside Library library.ucr.edu
Iowa State University Library lib.iastate.edu
MIT Libraries libraries.mit.edu
UCI Libraries lib.uci.edu
UC San Diego Library libraries.ucsd.edu
MacOdrum Library library.carleton.ca
University of Virginia Library library.virginia.edu
Temple University Libraries library.temple.edu
University of Pittsburgh Health Sciences Library System hsls.pitt.edu
lSU Libraries lib.lsu.edu
Cleveland Public Library cpl.org
University of Oregon Libraries library.uoregon.edu
Washington State University Libraries wsulibs.wsu.edu
University of Manchester Library www.library.manchester.ac.uk/
Carnegie Mellon University Libraries library.cmu.edu
Georgia Tech Library library.gatech.edu
Welch Medical Library welch.jhmi.edu
www.nuk.uni-lj.si/
lSE Library lse.ac.uk/library/
Claude Moore Health Sciences Library Hsl.virginia.edu
Warwick the Library www2.warwick.ac.uk/services/library/
Harvard Business School Baker Library library.hbs.edu
University of Kentucky Libraries libraries.uky.edu
Auburn University Libraries lib.auburn.edu
McMaster University Library library.mcmaster.ca
lane Medical Library lane.stanford.edu
UIC University Library library.uic.edu
Oregon State University Libraries osulibrary.oregonstate.edu
University of Waterloo Library lib.uwaterloo.ca
University of Houston Libraries info.lib.uh.edu
University of Nebraska-Lincoln Libraries libraries.unl.edu
George Washington University Health Sciences Library himmelfarb.gwu.edu

H Index Scholar de Documentación

 

H-Index Scholar

http://hindexscholar.com/

H-Index Scholar de Documentación

H-Index Scholar es un producto realizado por el Grupo de Evaluación de la Ciencia y la Comunicación Científica (EC3).  H Index Scholar es un índice bibliométrico que pretende medir el rendimiento de la producción académica de los profesores e investigadores de universidades públicas españolas de Humanidades y Ciencias Sociales a partir del recuento de sus publicaciones y de las citas bibliográficas que estas han recibido a través de Google Scholar.

La medición de la producción y el impacto de las publicaciones científicas, que son el principal medio empleado por los científicos para dar a conocer los resultados de sus creaciones, se ha convertido en el instrumento por excelencia para determinar la relevancia e importancia y, subsidiariamente, la calidad de la actividad científica. Mientras que los indicadores bibliométricos fueron adoptados inmediatamente como herramientas evaluativas en las disciplinas científico-técnicas, en las Humanidades y Ciencias Sociales quedaron relegados a un segundo plano cuando no abiertamente rechazados. Las razones no son otras que la propia idiosincrasia de la investigación en estos campos así como la inexistencia de sistemas de información apropiados.

Las peculiaridades de los investigadores de Humanidades y Ciencias Sociales en sus prácticas de comunicación científica Publican en una amplia variedad de medios, aunque tienen una especial predilección por las monografías (libros y capítulos de libros). Utilizan su lengua vernácula como principal medio de expresión. Publican fundamentalmente en medios nacionales, bien sean revistas, actas de congresos o editoriales de monografías. Citan fundamentalmente monografías, trabajos publicados en su lengua nativa y en medios nacionales. hacen inservibles las bases de datos bibliográficas tradicionales que ofrecen tanto recuentos de publicaciones como de citas (Web of Science, Scopus, Psychinfo…). Dichas bases de datos cubren casi exclusivamente artículos de revistas, se orientan fundamentalmente a las disciplinas científico-técnicas y poseen un marcado sesgo anglosajón en cuanto a la procedencia e idioma de los documentos que indizan.

UGRinvestiga: app sobre ranking de investigación

ugrinvestiga-1-16797-l-124x124

IOs

Android

UGRinvestiga ofrece rankings por ramas, disciplinas y especialidades de sus investigadores a partir de los datos de Google Scholar, teniendo en cuenta el número de citas y el Índice H. La función esencial de UGRinvestiga es permitir conocer los investigadores más citados de la universidad de Granada. Los indicadores bibliométricos se actualizan con un carácter trimestral.

La Universidad de Granada recoge en la página web http://apps.ugr.es un listado de las principales aplicaciones para móviles que se desarrollan en el seno de la institución y que se distribuyen de forma gratuita. Las aplicaciones están destinadas a usos docentes, investigadores o de gestión, y tienen como finalidad informar o mejorar los servicios que se ofertan desde la UGR.

Altmetrics pueden no seguir siendo alternativa por mucho tiempo

[]

Mapa del Academic Ranking of World Universities (ARWU) o ranking de Shanghai

Las Agencias de Evaluación y entidades financieras necesitan una medida objetiva de la calidad de las publicaciones, Consecuentemente existe una demanda de medidas de este tipo. El Factor de Impacto (también conocido como Índice de impacto), es una medida de la importancia de una publicación científica. Cada año es calculada por el ISI o Institute for Scientific Information para aquellas publicaciones a las que da seguimiento, las cuales son publicadas en un informe de citas llamado Journal Citation Report. El Factor de Impacto tiene una influencia enorme, pero controvertida. Al ya tradicional Journal Citation Report del ISI se han ido sumando algunas otras alternativas bien en la forma de medir dicho impacto (Índice de Hirsch, Scimago Journal Rank), bien en la cobertura temática o la de procedencia geográfica de las revistas (IN-RECS, IN-RECJ, RESH, IHCD…).

El factor de impacto de una revista es la media de veces que en un año determinado fueron citados los artículos publicados por esta revista en los dos años anteriores. El FI tienen algunas ventajas que hay que considerar:  Su cobertura internacional amplia con más de 8400 publicaciones de 60 países, los resultados son publicados y disponibles (FEYCIT) y es fácil de usar y entender.

Por ejemplo, el artículo de Oliver H. Lowry, Nira J. Rosenbrough, A. Lewis Farr, Rose J. Randall, “Protein Measurement with the Folin Phenol Reagent,” The Journal of Biological Chemistry (JBC) 193: 265-275, 1951, está considerado el artículo más citado de toda la historia de la ciencia (según el ISI Web of Science 1945-2010). En julio de 2005 ya contaba con 293.328 citas. Sin embargo Albert Einstein,  ha sido citado a día de hoy sólo 6647 veces. La revista con mayor índice de impacto de todas es CA-A Cancer Journal for Clinicians (94,262). Este año España tiene 76 revistas con impacto (en 2009 tuvo 59 y en 2008 solo 37).

La Web of Science y su correspondiente factor de impacto  son insuficientes para la comprensión del impacto de los trabajos académicos de las regiones en desarrollo, pero en contraposición las métricas alternativos ofrecen una gran oportunidad para reorientar las estructuras de incentivos hacia los problemas que contribuyen al desarrollo, o al menos a las prioridades locales. Se ha escrito mucho sobre las limitaciones metodológica de los sistemas de medición del impacto de las publicaciones científicas, y son los académicos de las regiones en desarrollo los que están sufriendo las más graves consecuencias. Problemas derivados de los sesgos disciplinares, ya que en estos índices están más representadas las ciencias, que las humanidades y las ciencias sociales, además el comportamiento de los usos de cita y obsolescencia son muy distintos en unos y otros áreas. Quizás los 2 años de medición que tiene Web of Knowledge son suficientes para las ciencias por su alto índice de obsolescencia, pero no para el resto de áreas de conocimiento. Sesgos lingüísticos, fundamentalmente están representadas las lenguas anglosajonas respecto al resto; otras cuestión importantes son la relativa a las áreas geográficas representadas, que tienen que ver con los países más desarrollados, e incluso con los emergentes, ya que la política de aceptación de revistas en Web of Knowdlge si bien aparece establecida en su página y da unas pautas aparentemente claras, en la realidad no es tan transparente. Cada año Thomson Reuters evalúa aproximadamente 2.000 revistas para la inclusión de las mismas en Web of Science. En el este enlace podrá encontrar información sobre los criterios de selección que utiliza Thomson Reuters para la inclusión de revistas.

Una muestra de todo esto es un estudio de Kahn “A bibliometric study of highly cited reviews in the Science Citation Index expanded™.” sobre los documentos muy citados en Journal Citation Report, estudia aquellos que se citaron al menos 1000 veces desde su publicación hasta 2011 (un total de 1,857), fueron identificados en la base de datos Science Citation Index Expanded ™ (Thomson Reuters, Nueva York) entre 1899 y 2011. Si se analiza la autoría, entre los autores más citados, en el 33% de los casos eran obras de un sólo autor, el 61 % eran de una sola institución, y el 83 % eran de un único país. Estados Unidos ocupa el primer lugar en los 6 indicadores. Los países de G7 (Estados Unidos, Reino Unido, Alemania, Canadá, Francia, Japón e Italia) fueron escenario de casi todas los documentos muy citados. Las 12 instituciones más productivas son de Estados Unidos con la Universidad de Harvard  y Texas como líderes. Revistas. Las 3 revistas más productivas fueron Chemical Reviews, Nature y Annual Review of Biochemistry.

El problema para las regiones en desarrollo se deben a la escasa representación de la investigación mundial en Web de Thomson Reuters of Science (WoS). La falta de investigación de las regiones en vías de desarrollo no es la falta de investigación, es la baja represntación en los índices oficiales. En América Latina, en 2012, sólo el 4% de revistas revisadas por pares fueron incluidos en WoS, un total de 242 de más de 5000; sin embarfo  SciELO y RedALyC , trabajando sólo con un subconjunto de estas 5.000 + revistas, han indexado más de medio millón de artículos en revistas regionales, principalmente de autores latinoamericanos. Thomson Reuters recientemente anunció una alianza con SciELO, en el que las 650 revistas en SciELO se indexarán y aparecen en la Web of Knowledge. (Alperin, Juan Pablo, 2014) El argumento a favor de esta tendencia ha sido siempre que la investigación del mundo en desarrollo no forma parte de la “corriente principal” o la ciencia “internacional”. Si bien también se podría argumentar en contra diciendo que WoS es un conjunto de datos insuficientes para comprender el impacto de las comunicaciones académicas de las regiones en desarrollo.

Por otra parte, los medios sociales están generando una influencia en los procesos de comunicación científica y en los hábitos y comportamientos de los investigadores de todas las disciplinas. La influencia generada por los medios sociales ha sido calificada como Investigación 2.0, Social Reference o Altmetrics. Almetrics recoge las menciones de artículos académicos de todas partes de la Web mediante la recopilación de menciones en los periódicos, blogs, redes sociales y otros sitios web. Algunas de estas herramientas como Almetric.com, en cuestión de minutos, permiten al autor disponer de los datos almétricos para mostrarlos en su plataforma o aplicación. Las métricas alternativas tienes algunas críticas relativas a la falta de uniformidad normalización de las estadísticas, posibilidades de manipulación de datos, y a que se trata de una simple medida de uso y no de influencia científica. Recientemente miembros del grupo EC3 de la universidad de Granada crearon un perfil falso en homenaje a dos de los más grandes ciclistas del panorama internacional que llamaron “Marco Alberto Pantani-Contador” para demostrar que era sencillo manipular estas herramientas. El texto, carente de sentido alguno, fue copiado y pegado de la página web del grupo de investigación al que pertenecen, y traducido al inglés con Google Translator. Los investigadores dividieron a su vez el falso paper en seis artículos, citando en cada uno de ellos otros 129 trabajos científicos. El resultado no se hizo esperar: los tres autores materiales de este experimento, a quienes Pantani-Contador citaba en su falso artículo, vieron cómo aumentaban considerablemente sus citas en Google Scholar.

Algo se está moviendo en el contexto:

  • Hoy en día incluso multinacionales de la información científica como Elsevier, que ha sido durante mucho tiempo un defensor a ultranza de la informetría robusta está interesándose en la comprensión de cómo se pueden utilizar estas nuevas medidas en relación con los datos de uso y citación, para proporcionar nuevos indicadores significativos para la comunidad investigadora.
  • También en la 14ª edición del Ranking Web de Repositorios, en su última versión de 2014 incluye mediciones Altmetrics de las siguientes fuentes en el indicador Visibilidad: Academia, Facebook, LinkedIn, Mendeley, ResearchGate, Slideshare, Twitter, Wikipedia (todas las ediciones), Wikipedia (versión Inglés) y YouTube (25%)
  • Otro ejemplo es Plos con Un ejemplo de estos sistemas es el modelo ALMs de PLoS Article Level Metrics que  se encargan de hacer la recopilación de estas evidencias tales como su cobertura en blogs, cobertura en noticas y presentarla a sus lectores.
  • Una herramienta similar en Altmetric.com que bajo suscripción muestra el impacto de la investigación a sus autores y lectores de modo muy gráfico y nuevo. Monitorear, buscar y medir todas las conversaciones acerca de los artículos de una revista, así como los publicados por sus competidores. Recoge las menciones de artículos académicos de todas partes de la Web mediante la recopilación de menciones en los periódicos, blogs, redes sociales y otros sitios web. En cuestión de minutos, permite al autor disponer de los datos Altmetrics para mostrarlos en su plataforma o aplicación. El algoritmo Altmetric.com calcula una puntuación global teniendo en cuenta el volumen, la fuente y el autor en función de las menciones que recibe un documento. Esto incluye las menciones de artículos académicos sobre los sitios de medios sociales (por ejemplo, Twitter, Facebook, Pinterest, Google+), blogs científicos, muchos medios de comunicación convencionales, incluyendo The New York Times, TheGuardian, las publicaciones en idiomas distintos al inglés, como Die Zeit y Le Monde y publicaciones de interés especial como Scientific American y New Scientist, sitios de revisión por pares de referencia como Publons.

Todos estos signos indican que altmetrics pueden no seguir siendo alternativa por mucho tiempo. lo que es especialmente atractivo para aquellas disciplinas y áreas que tradicionalmente han sido excluidas del análisis bibliométrico, ya que no están suficientemente representadas en bases de datos como Web of Science (WoS) o Scopus, como las ciencias sociales y las humanidades.

Un documento muy interesante a este respecto es Users, narcissism and control – tracking the impact of scholarly publications in the 21st century, de SURFfoundation publicado en 2012, y cuyo cuyo objetivo es contribuir al desarrollo de herramientas más útiles para la comunidad científica y académica. Este programa debe abordar por lo menos las siguientes herramientas: F1000 , Microsoft Academic Research, Total-Impact, PlosONE altmetrics, y Google Scholar Citations , Mendeley. El libro informa sobre el seguimiento del impacto de las publicaciones académicas en el siglo 21 que debe de tener en cuenta cualquier investigador. muy recomendable para potenciar la investigación.

Bibliografía:

Juan Pablo Alperin “ Altmetrics could enable scholarship from developing countries to receive due recognition” LSE, 2014 Ho, Y.-S. and M.

Kahn “A bibliometric study of highly cited reviews in the Science Citation Index expanded™.” Journal of the Association for Information Science and Technology vol. 65, n. 2 (2014).  pp. 372-385.

Delgado López-Cózar, Emilio; Robinson?García, Nicolás; Torres?Salinas Daniel. The Google Scholar Experiment: how to index false papers and manipulate bibliometric indicators. Journal of the American Society for Information Science and Technology (2013). Article first published online: 11 NOV 2013. DOI: 10.1002/asi.23056.

Delgado López?Cózar, E.; Robinson?García, Nicolás; Torres?Salinas Daniel.  Science Communication: Flawed Citation Indexing. Science 6 December 2013: Vol 342, no. 6163, p. 1169. DOI: 10.1126/science.342.6163.1169-b.