Archivo de la etiqueta: Impacto

Alfabetización de la información: De la identidad digital a la visibilidad científica

36112316486_c814959105_b_d

 

Alonso-Arévalo, J., C. Lopes, et Antunes, Maria da Luz. “Literacia da informação: Da identidade digital à visibilidade científica.” ISPA vol., n. (2016).

Texto completo

Las nuevas posibilidades de comunicación también ofrecen nuevas oportunidades para la formación, el análisis y la evaluación de la investigación. Científicos e investigadores utilizan con frecuencia aplicaciones basadas en la web en investigación. Prácticamente en todas las áreas de investigación, las herramientas digitales se han convertido en indispensables; La aparición de nuevos paradigmas como el acceso abierto, las métricas alternativas y las redes sociales son un importante ejemplo de cómo estos cambios afectaron la forma en que los estudiosos piensan en el futuro de las publicaciones académicas. Estos acontecimientos están generando nuevas posibilidades y nuevos desafíos en la evaluación de la calidad de la investigación, en el nivel de los investigadores individuales y del desarrollo profesional. Es a este nivel, que la biblioteca desempeña un papel indispensable en la formación de competencias y habilidades informativas que repercutirá en la valorización social del profesional, en su satisfacción profesional y, en última instancia, en la calidad de la propia institución. Se destacan los aspectos más relevantes en los nuevos paradigmas de comunicación y difusión científica y, a ese respecto, se recomiendan las acciones más adecuadas.

[POR] As novas possibilidades de comunicação também oferecem novas oportunidades para a formação, análise e avaliação da investigação. Cientistas e investigadores usam com frequência as aplicações baseadas na web em investigação. Praticamente em todas as áreas de investigação, as ferramentas digitais converteram-se em indispensáveis; o aparecimento de novos paradigmas como o acesso aberto, as métricas alternativas e as redes sociais são um importante exemplo de como estas mudanças afetaram a forma como os estudiosos pensam no futuro das publicações académicas. Estes acontecimentos criaram novas possibilidades e novos desafios na avaliação da qualidade da investigação, ao nível dos investigadores individuais e do desenvolvimento profissional. É a este nível que a biblioteca desempenha um papel indispensável na formação de competências e habilidades informativas que se repercutirá na valorização social do profissional, na sua satisfação profissional e, em última instância, na qualidade da própria instituição. Destacam-se os aspetos mais relevantes nos novos paradigmas de comunicação e difusão científica e, a esse respeito, recomendam-se as ações mais adequadas.

Los recuentos de lectores que ofrece Mendeley son una de las evidencia más consistentes para la estimación temprana del impacto académico

25544875473_4b6e88ec31_c_d

 

“Mendeley es, con mucho, la mejor fuente general de información temprana sobre el impacto académico. ya que, los conteos de descargas de los artículos de las propias revistas muchas veces no están disponibles, los conteos de Tweets son muy poco fiables como indicador de impacto y otros indicadores de impacto temprano por lo general son mucho más escasos y deficientes. Por lo que los recuentos de los lectores de un artículos proporcionados por Mendeley son una de las fuentes más válidas como evidencia para informar de las estimaciones del impacto de las publicaciones académicas.”

Mike Thelwall

 

Los recuentos de citas a artículos científicos son ampliamente utilizados como evidencia para informar las estimaciones del impacto de las publicaciones académicas. Esto se basa en la creencia de que los científicos suelen citar trabajos que han influido en su pensamiento y, por tanto, los conteos de citas son uno de los principales indicadores de influencia de la investigación en el entorno académico.

En opinión de Mike Thelwall, profesor de Ciencias de la Información en la Escuela de Matemáticas e Informática de la Universidad de Wolverhampton, y uno de los máximos expertos internacionales en webometría, métricas de medios sociales (altmetrics) y análisis de sentimientos, Mendeley es una de las herramientas más consistentes de la web social a la hora de proporcionar evidencias tempranas del impacto de una investigación, tal como afirma en el prestigioso blog LSE.  Según Thelwall, el uso de las citas como indicador del impacto académico, que si bien ofrece información sobre qué los artículos han sido leídos y valorados, por otra parte tiene algunas limitaciones que han sido bien contrastadas; una de sus principales desventajas es la lentitud en obtener dichas citas, ya que para que se produzca la primera cita deben pasar varios meses desde su publicación, -se calcula que unos 18 meses de media en función de la disciplina -, Ya que alguien tiene que leer el artículo, considerar las ideas, escribir un artículo en relación con ese contenido, y posteriormente citarlo (índice de latencia). Por ello, Mike Thelwall analizó diferentes herramientas de la web social, entre ellas los recuentos de lectores de Mendeley (Readers), considerando que son una fuente útil de información que ofrece una evidencia temprana del impacto académico; pues los datos de los lectores de Mendeley quedan registrados desde el momento en que un artículo aparece en línea y es compartido en Mendeley; y por lo tanto, evita los retrasos en el ciclo de publicación que ralentizan la visibilidad de las citas.

“Los datos de Mendeley están disponibles antes, ya que los estudiosos pueden compartir un artículo que están leyendo en Mendeley, mientras lo están leyendo, por lo que esta información evita los retrasos en el ciclo de publicación. Un artículo puede incluso comenzar a acumular pruebas de su interés a través de Mendeley en la misma semana que se publica, si la gente lo reconoce como importante e inmediatamente lo registra en Mendeley para su uso actual o futuro.”

 

Desde 2015 Mendeley ofrece las correlaciones entre los lectores que han compartido un artículo en el gestor de referencias, las visualizaciones en Science Direct y las citas recibidas en Scopus. Además, Mendeley, junto con CiteUlike, se incluye en casi todos las plataformas de medición altmétrica como Altmetric.comImpactStory, o Plos Altmetrics; lo que configura a este gestor de referencias como la herramienta de gestión de referencias bibliográficas más consistente de la web social, y la más adecuada para el investigador.

 

 

 

Las citas no son suficientes: la evaluación del impacto académico deben tener en cuenta la presencia en los medios populares.

photo_47855_landscape_650x433

Biswas,Asit : Kirchherr, JulianCitations are not enough: Academic promotion panels must take into account a scholar’s presence in popular media. LSE, 2017

Texto completo

Los eruditos de todo el mundo juzgan el impacto de la investigación basándose casi exclusivamente en que el artículo haya sido publicado en “prestigiosas” revistas revisadas por pares. Asit Biswas y Julian Kirchherr sostienen que las publicaciones en los medios populares también deben tenerse en cuenta. Después de todo, estos medios son cruciales para informar a los profesionales.

 

Durante los años 1930 y 1940, el 20 por ciento de los artículos de la prestigiosa revista The American Political Science se centraron en las recomendaciones de políticas. En el último recuento, este porcentaje se redujo a un escaso 0,3 por ciento. Cada año se publican hasta 1,5 millones de artículos revisados por pares. Sin embargo, muchos de ellos son ignorados incluso dentro de la comunidad científica, por ejemplo, el 82 por ciento de los artículos publicados en Humanidades ni siquiera se citan una sola vez, al igual que el 32 por ciento de los artículos revisados por pares en Ciencias Sociales, y el 27 por ciento en Ciencias Naturales. Además, que se cite un documento, no implica que haya sido leído, ya que según alguna estimación, sólo el 20 por ciento de los documentos citados han sido realmente leídos. Se sospecha que la media de lectura de los artículos de una revista revisada por pares son leídos a lo sumo por unas 10 personas. Por lo tanto, el impacto de la mayoría de las publicaciones revisadas por pares, incluso dentro de la comunidad científica es minúsculo. Incluso, son muy pocos los líderes de negocios de alto nivel que habitualmente leen y citan algún artículo revisado por pares, ni siquiera en revistas reconocidas como Nature, Science o The Lancet. Unido a ello está el hecho de que cualquier revista de este tipo es poco accesible económicamente a cualquiera persona de fuera del entorno académico, a pesar de que ya haya muchos artículos disponibles en acceso abierto.

En la actualidad es habitual que los líderes políticos de casi todos los países tengan un servicio de asesoría y documentación que les resume que se ha comentado sobre sus políticas en los medios sociales. Sin embargo, ningún encargado de toma de decisiones solicitaría resúmenes sobre publicaciones y discusiones en revistas académicas. Por lo tanto, si los académicos quieren tener impacto en quienes diseñan y proyectan políticas, deben tener en cuenta los medios sociales, algo que no es a menudo del agrado de muchos de los investigadores.

En los últimos años han surgido star-up que tienen en cuenta esto, por ejemplo Project Syndicate (PS), una organización sin fines de lucro que distribuye los comentarios de los líderes del pensamiento mundial en más de 500 periódicos que leen potencialmente más 300 millones de lectores de 154 países. Cualquier comentario aceptado por PS se traduce automáticamente a 12 idiomas, y luego se distribuye globalmente a toda la red. Estas publicaciones en los medios más populares, a menudo muestran la relevancia práctica y la aplicación potencial de los resultados de la investigación para resolver problemas del mundo real. Por ello, y por razones de tenencia y promoción, también deben evaluarse el impacto de los académicos sobre la formulación de políticas y los debates públicos.

 

 

 

 

 

Sobre la manipulación de las citas en la evaluación científica. ¿Hasta donde es aceptable la manipulación de las citas?

5cb00472b6c6dbb776e084f2d419c5ac

How Much Citation Manipulation Is Acceptable?.The Scholarly Kitchen, 30 de mayo de 2017

Ver completo

En todos los sistemas de medición científica existe un margen de error debido en buena parte a patrones de citas anómalos, un eufemismo para referirse a la autocita sistémica, una práctica bastante común con la que algunas revistas coaccionen a sus autores que desean publicar en ellas para que citen artículos de la misma revista con el objetivo de mejorar su posicionamiento en los rankings, entre los argumentos que utilizan algunos editores para justificar esta práctica poco ética es que también recurren a esta práctica sus competidores, y que por lo tanto es una manera de reequilibrar la situación. Según datos de Clarivate Analytics, la compañía  que publica Journal Citation Report (JCR), el año pasado, 18 títulos de revistas fueron suspendidos del JCR, 16 por altos niveles de auto-cita, los otros dos para “apilar citas”. Entre estas revistas está Land Degradation & Development (LDD), en la que durante 2015, casi la mitad de las auto-citas de esta revistas (46%) se centraron en los artículos de los dos años anteriores de la publicación, en comparación con sólo 4% de las citas que desde LDD se hicieron a otras revistas. Esta cuestión es importante, ya que el Factor de Impacto mide las citas que se recibió la revista los dos años anteriores en relación con el total de artículos publicados en esos dos años. Sin estas citas el factor de impacto de LDD habría sido menos de la mitad (3.982) de la puntuación que recibió (8.145). Por lo tanto hay que preguntarse: ¿Hasta donde es aceptable la manipulación de las citas?

Comunicación y difusión de la ciencia. Planeta Biblioteca 2017/05/31

34714078770_8aacfc7486_b_d

ESCUCHAR

Ir a descargar

El Instituto Universitario de Estudios de la Ciencia y la Tecnología (ECyT) de la USAL tiene como objetivo el estudio de los sistemas científico-tecnológicos. En esta ocasión hemos contado en nuestro programa con la colaboración de Miguel Ángel Quintanilla, profesor, investigador y fundador del ECyT, Ana Cuevas, actual directora y Bruna Maltrás miembro colaborador; con ellos hemos hablado de comunicación y difusión de la ciencia, de los mecanismos de evaluación de la calidad y de los procesos de acreditación científica.

Instituto Universitario de Estudios de la Ciencia y la Tecnología (ECyT)

 Y en CON LA MÚSICA A OTRA PARTE

Pink Floyd

Indicadores de medición del impacto de las citas bibliográficas

 

Indicators

Citation Performance Indicators — A Very Short Introduction
By PHIL DAVIS. Scholary Kitchen may 15, 201710

Texto completo

Phil Davis acaba de publicar en The Scholarly Kitchen un post en el que proporciona un breve resumen de los principales indicadores de citas utilizados hoy en día. Se trata de una publicación divulgativa, pero muy aclaratoria, no tanto de interés para bibliometras, como para el conocimiento por parte de investigadores, bibliotecarios y público en general. No se pretende que sea exhaustivo, ni se pretende opinar sobre el indicador que es mejor

Los indicadores son parámetros de medición que permite dar seguimiento y evaluar el cumplimiento de los objetivos de la actividad institucional respecto del logro o resultado en la entrega de bienes o servicios.

Lo más importante de un buen indicador es que tiene que tener una estrecha conexión teórica con la construcción subyacente que intenta medir. Un buen indicador simplifica los datos subyacentes, es fiable en sus informes y proporciona transparencia a los datos subyacentes.

Por último, cualquier discusión de los indicadores de desempeño invita a opiniones contrastadas tales como su uso indebido, abuso, implicaciones sociales, culturales y políticas que el alguna manera son ajenas al propio indicador.

Davis estructura los indicadores en tres grupos en función del diseño del algoritmo en el que se basa el indicador:

  1. Indicadores basados ​​en la ratio  se construye sobre el mismo modelo que el factor de impacto, dividiendo las citas recibidas entre el número de documentos publicados por la revista.
  2. Indicadores basados ​​en la gama (portfolio) calculan una puntuación basada en un conjunto clasificado de documentos.
  3. Indicadores basados ​​en la red, busca medir la influencia dentro de una red de citas mayor.

 

 

Indicadores basados en la ratio

Impact Factor: Total de citas en un año dado a todos los trabajos publicados en los últimos 2 años divididos por el número total de artículos y reseñas publicadas en los últimos 2 años. PROS: Fórmula sencilla con datos históricos. CONTRAS: el periodo de publicación de 2 años es demasiado corta para la mayoría de las disciplinas. PRODUCTOR: Clarivate (anteriormente Thomson Reuters), publicado anualmente en junio.

Impact Factor (5-yr): Abarca un periodo de publicación de 5 años en lugar de 2. PROS: La métrica preferida en campos en los que el ciclo de vida de la citación largo, por ejemplo, ciencias sociales. PRODUCTOR: Clarivate, publicado anualmente en junio.

CiteScore: Citas en un año dado a todos los documentos publicados en los últimos 3 años divididos por el número total de documentos publicados en los últimos 3 años. PROS: No intenta clasificar y limitar por tipo de artículo; Basado en un conjunto de datos Scopus más amplio; Recurso libre. CONTRAS: Preconcebido para las revistas que publican editoriales, noticias, cartas, etc.. PRODUCTOR: Elsevier, basado en los datos de Scopus, actualizado mensualmente.

Impact per Publication (IPP): Similar al Factor de Impacto con diferencias notables: 3 años. Periodo de publicación de 3 años; Incluye sólo citas a artículos clasificados como artículo,actas de conferencia o revisiones; Basado en un conjunto de datos Scopus. PROS: Periodo de análisis más largo; Las citas se limitan a aquellos documentos contados en el denominador. CONTRAS: Al igual que el factor de impacto, definir cual es el tipo de artículo correcto puede ser problemático. PRODUCTOR: CWTS, Universidad de Leiden, basada en los datos de Scopus, publicados cada mes de junio.

Source-Normalized Impact per Paper (SNIP): Similar a IPP, pero las puntuaciones de citas que se normalizan para tener en cuenta las diferencias entre los campos científicos, donde el campo está determinado por el conjunto de documentos que citan esa revista. PROS: Puede comparar el rendimiento de la revista entre entre disciplinas y campos. CONTRAS: La normalización hace que el indicador sea menos transparente. PRODUCTOR: CWTS, Universidad de Leiden para Elsevier, publicada cada mes de junio.

Indicadores basados ​​en la gama

H-index: Una medida de la cantidad y el rendimiento de un autor individual. Un autor con un índice de h habrá publicado h artículos, cada uno de los cuales ha sido citado por lo menos h veces. Si el índice h de un autor es 21, quiere decir que tiene almenos 21 documentos que se han citado 21 veces PROS: Mide el rendimiento profesional; No influenciado por valores atípicos (documentos altamente citados). CONTRAS: Dependiente del campo; Ignora el orden de la autoría; Aumenta con la edad y productividad del autor; Sensible a la autocitación, especialmente en Google Scholar. PRODUCTOR: Descrito por el cinetífico aleman J. E. Hirsch, muchas fuentes calculan los valores del índice h para los autores individuales.

h-5 : Variación del índice h que se limita a artículos publicados en los últimos 5 años. Utilizado por Google Scholar para comparar el rendimiento de la revista. PROS: Permite comparar autores jóvenes con autores más antiguos. CONTRAS: Dependiente del campo; Ignora el orden de la autoría en la publicación; Sensibles a la autocitación y al juego, especialmente en Google Scholar. Google Scholar también utiliza h5-median, que pretende reducir el sesgo de tamaño. PRODUCTOR: Google Académico. Publicado anualmente en junio.

Indicadores basados en la red

Eigenfactor: Mide la influencia de una revista en una red de citas. El cálculo de las puntuaciones se basa en la centralidad de los vectores propios, calculada a través de la ponderación iterativa, de manera que las citas de una revista tienen más influencia que otras. PROS: Ofrece una métrica que refleja de forma más clara la influencia científica como un entorno determinado. CONTRAS: Computacionalmente complejo, no fácilmente replicable. PRODUCTOR: Clarivate (anteriormente Thomson Reuters), publicado anualmente en junio.

Scimago Journal & Country Rank (SJCR): Similar al Eigenfactor pero calculado sobre la base de datos de Scopus. SJR asigna puntuaciones relativas a todas las fuentes en una red de citas. Su metodología se inspira en el algoritmo de Google PageRank, en que no todas las citas son iguales. Una fuente transfiere su propio “prestigio”, o estado, a otra fuente a través del acto de citarlo. Una citación de una fuente con una SJR relativamente alta vale más que una citación de una fuente con una SJR más baja. PROS.  SJR permite al usuario clasificar su propio conjunto de fuentes personalizadas, independientemente de sus campos temáticos. PRODUCTOR: Elsevier, publicado anualmente en junio.

Relative Citation Ratio (RCR): Una métrica de citas normalizadas para artículos basados ​​en la base de datos PubMed del NIH. Un campo se define por las referencias en los artículos co-citado con el documento de interés. PROS: Permite que cada artículo sea definido por su propia cita En lugar de basarse en la clasificación de campos externos. CONS: Sensible a citas interdisciplinarias y revistas multidisciplinarias. El RCR depende del Factor de Impacto para ponderar las revistas que figuran en las referencias. PRODUCTORA: NIH.

 

 

 

 

Mega-Journals de acceso abierto: ¿El futuro de la comunicación científica?

 

the-rise-of-open-access-mega-journals-081216-large

Spezi, Valerie ; Wakeling, Simon; Pinfield, Stephen; Creaser, Claire “Open-Access Mega-Journals: The Future of Scholarly Communication or Academic Dumping Ground? A Review”. Journal of Documentation Vol. 73 Iss 2 (2017) doi:10.1108/JD-06-2016-0082

Texto completo

Las mega-revistas de acceso abierto (OAMJs) representan una parte cada vez más importante del paisaje de la comunicación científica. mega-revistas (OAMJs), como PLOS ONE, BNL Open, F1000 Research son revistas de gran alcance que operan bajo un modelo de negocio de acceso abierto (normalmente basado en las tarifas de procesamiento de artículos) y que emplean una novedosa forma de revisión por pares, más enfocada a la solidez científica.

  • Una mega revista tiene las siguientes características definitorias:
  • Amplia cobertura de diferentes materias
  • Aceptan artículos para su publicación basados en si son técnicamente sólidos en lugar de seleccionar por su importancia percibida
  • Utilizan el modelo el “Autor-paga” en el que los costos son cubiertos por una carga de procesamiento de artículos
  • Un proceso acelerado de revisión y publicación, con un tiempo de respuesta rápid
  • Utilizan editores académicos, incluso una gran redacción de editores académicos, en lugar de editores profesionales
  • Servicios de valor añadido como gráficos reutilizables y datos a través de licencias Creative Commons
  • La revista está disponible en línea en acceso abierto

Lista de mega revistas

Las mega-revistas constituyen sólo una pequeña proporción  de la publicación científica; En 2015, representaron el 2,5 por ciento de todos los artículos publicados. Tal como vemos en el gráfico de arriba, la escena es dominada por dos grandes revistas Plos One , que publicó casi 27.500 documentos en 2015, y Scientific Reports, una publicación hermana de Nature, que publicó 10.600. Los defensores argumentan que aceptar los artículos simplemente porque son científicamente sólidos reduce las tasas de rechazo y ahorra tiempo; Pero las mega-revistas, que cobran por publicar artículos, también han sido acusadas de ser “medios de financiación” para subsidiar otras revistas más selectivas de la misma editorial. Si bien cuando se trataba de analizar el impacto y las citas, las mega-revistas variaban ampliamente. El 60% de las mega-revistas analizadas tienen una tasa de citas promedio más alta que las revistas en general.

Este artículo presenta una revisión de la literatura de OAMJs estructurada en torno a cuatro características definitorias: escala, ámbito disciplinario, política de revisión por pares y modelo económico. Aunque la literatura académica relacionada específicamente con los OAMJ es relativamente escasa, la discusión en otros foros es detallada y animada, con debates que van desde la sostenibilidad y la ética del modelo de mega-revista hasta el impacto de la revisión de pares sobre la calidad del artículo. 

El documento es la primera revisión integral del fenómeno de la mega-revista, recogido no sólo a través de la literatura académica publicada, sino también por medio de otras  fuentes alternativas, profesionales e informales como blogs. En conclusión el potencial de los OAMJs para representar y descubrir nueva información, puede representar un paradigma de cambio de desarrollo en la publicación académica.