Archivo de la etiqueta: Citas

Clarivate identifica a los pioneros científicos mundiales en la lista anual de investigadores altamente citados

Highly Cited Researchers ™ 2020.

La lista anual identifica a los investigadores que demostraron una influencia significativa en su campo o campos elegidos a través de la publicación de múltiples artículos muy citados durante la última década. Sus nombres provienen de las publicaciones que se ubican en el 1% superior por citas por campo y año de publicación en el índice de citas de Web of Science ™.

La metodología que determina el “quién es quién” de los investigadores más influyentes se basa en los datos y análisis realizados por expertos bibliométricos y científicos de datos del Institute for Scientific Information ™ de Clarivate. También utiliza los recuentos para identificar los países y las instituciones de investigación donde se encuentran estas élites científicas.

Estados Unidos domina la lista de investigadores reconocidos por sus pares, pero el panorama global cambia a medida que los investigadores chinos captan una participación del 12%.

Los hallazgos clave para 2020 muestran:

  • Este año han sido reconocidos 6.167 investigadores de más de 60 países y regiones.
  • Si bien Estados Unidos continúa dominando la lista como el país del mayor número de investigadores altamente citados, con 2.650 autores, que representan el 41.5% de los investigadores en la lista, su participación relativa en la lista continúa disminuyendo (44% en 2019). .
  • La Universidad de Harvard, con 188 investigadores, es una vez más la institución con la mayor concentración de investigadores altamente citados en el mundo. Sus vecinos, el Broad Institute y el Massachusetts Institute of Technology, se unen a ellos para encabezar la lista de instituciones líderes a nivel mundial, hogar de 61 y 53 investigadores altamente citados, respectivamente.
  • El lugar de China continental en la lista continúa aumentando; ahora tiene 770 (12,1% o 1: 8) investigadores en la lista, en comparación con 636 o 10,2% en 2019. Su clasificación se ha visto impulsada por la notable entrada en el los diez primeros de la Universidad de Tsinghua, Beijing, subiendo 10 lugares del 19 al 9 en la lista junto con la entrada en 2020 de las universidades de Pekín y Zhejiang a los escalones superiores de la lista.
  • Singapur se muestra con fuerza, representada por la Universidad Tecnológica de Nanyang y la Universidad Nacional de Singapur.
  • Europa también tiene una buena cantidad de buenas noticias. El número de investigadores altamente citados con sede en Alemania y los Países Bajos ha aumentado este año; ambos mostraron una caída el año pasado. La Sociedad Max Planck en Alemania permanece en el número 5 en la lista de instituciones, mientras que la Universidad de Utrecht (27 investigadores) y la Universidad e Investigación de Wageningen (24 investigadores) en los Países Bajos subieron al nivel superior de las universidades enumeradas. El Instituto Suizo de Bioinformática subió 20 puestos en la clasificación institucional con la incorporación de una docena de investigadores altamente citados este año.
  • La lista de este año incluye 26 premios Nobel, incluidos tres anunciados este año

Correlaciones entre la atención recibida por una investigación en los medios sociales y las citas científicas

 

87bc01c639775e05fc732a2b9c820614

 

 Anderson, P. Sage… et al. Case Study Exploring Associations Between Popular Media Attention of Scientific Research and Scientific Citations. PLoS ONE 15(7): e0234912.
DOI: 10.1371/journal.pone.0234912

Texto completo

 

La asociación entre la mención de la investigación científica en los medios populares (p. Ej., Los principales medios de comunicación o las plataformas de redes sociales) y el impacto científico (p. Ej., Las citas) aún no se ha explorado por completo. El propósito de este estudio fue aclarar esta correlación, mientras se tienen en cuenta algunos otros factores que probablemente influyen en el impacto científico (por ejemplo, la reputación de los científicos que realizan la investigación y la revista académica en la que se publicó la investigación).

Para lograr este propósito, se evaluaron aproximadamente 800 artículos revisados ​​por pares que describen la investigación original para determinar el impacto científico, la atención de los medios populares y la reputación de los científicos / autores y el lugar de publicación. Se produjo un modelo de ecuación estructural que describe la relación entre el impacto no científico (medios populares) y el impacto científico (citas), al tiempo que representa la reputación del autor / científico y la revista.

El modelo resultante reveló una fuerte asociación entre la cantidad de atención de los medios populares dada a un proyecto de investigación científica y la publicación correspondiente y el número de veces que esa publicación se cita en literatura científica revisada por pares.

Estos resultados indican que (1) las publicaciones científicas revisadas por pares que reciben más atención en medios no científicos tienen más probabilidades de ser citadas que las publicaciones científicas que reciben menos atención de los medios populares, y (2) los medios no científicos están asociados con la agenda científica.

Estos resultados pueden informar a los científicos que utilizan cada vez más los medios populares para informar al público en general y a los científicos sobre su trabajo científico.

Estos resultados también podrían informar a los gestores de la enseñanza superior y los mecanismos de financiación de la investigación, que basan las decisiones en parte en el impacto científico.

 

Clarivate suprime 33 revistas de los grandes editores científicos por exceso de autocitas a sí mismas

 

clarivate-logo

 

ClarivateMajor indexing service sounds alarm on self-citations by nearly 50 journals. Retraction Watch,

Texto completo

 

Más de 33 revistas  han sido suprimidas de Journal impact factor, ya que más del 70% de las citas en una revista se hicieron a otros artículos de esa misma revista. Otra publicó un solo artículo que citaba casi otros 200 artículos en la revista.

 

 

Clarivate, la compañía que gestiona el Factor de Impacto, está tomando medidas para combatir ese comportamiento, suprimiendo 33 revistas de su servicio de indexación y sometiendo a 15 más a observacion, todas por una aparente excesiva auto-citación que impulsó a estas revistas en el ranking de las revistas.

La lista incluye algunas de las grandes compañías del mundo de la edición científica: nueve eran revistas publicadas por Elsevier, siete por Springer Nature, seis por Taylor & Francis y cinco por Wiley.

Dada la dependencia de muchas universidades en los rankings de revistas para juzgar el trabajo de sus investigadores como parte de las decisiones de tenencia y promoción, la supresión de una revista de Clarivate significa negarle un Factor de Impacto, que puede tener efectos a largo plazo. Los factores de impacto se basan en citas promedio de artículos en una revista durante un período de tiempo concreto. Muchos organizaciones,  incluidos Retraction Wacht, han argumentado que el Impact Factor no es la mejor manera de juzgar la investigación, por razones que incluyen la relativa facilidad de manipular tales métricas.

Web of Science de Clarivate indexa 21.000 revistas, pero solo 12.000 están incluidas en el Journal Citation Report (JCR) anual y reciben Factores de Impacto. Actualmente hay dos razones para la supresión de la JCR:

La auticitación de la revista y el “apilamiento de citas”, comportamiento que a veces se conoce como participar en “colegios invisibles de citas” o “anillos de citas“. Ninguna de las supresiones de este año fueron por el apilamiento de citas. Cuando la empresa retira una revista del JCR, continúa contando sus citas, pero no le asigna un Factor de Impacto.

La compañía ha cambiado la forma en que considera la autocita y revisó su metodología, dijo la editora en jefe de Web of Science, Nandita Quaderi, en respuesta las pautas que se han observado en los últimos años.

Este año, Clarivate también sometió a 15 revistas a exámenes editoriales de preocupación. Tales revistas tenían un pequeño número de artículos con niveles muy altos de citas a artículos en la misma revista que pueden tener un efecto significativo en el Factor de Impacto y en el ránking. Quaderi dijo que juzgar solo los niveles generales de autocitación de las revistas pasaría por alto tales patrones, porque no tomaría en cuenta directamente cómo estas citas se “concentran” en artículos o períodos de tiempo particulares.

Nada cambia para las revistas JCR sujetas a tales indicadores, pero se monitorean de cerca para su reevaluación y pueden perder sus Factores de Impacto en los años siguientes o ser eliminados de la indexación por completo.

Este movimiento marca solo la segunda vez que Clarivate ha emitido análisis de revisión. En 2018, lo hicieron con cinco revistas en el campo óseo, cuatro de las cuales fueron suprimidas al año siguiente. Las cinco actualmente están de nuevo reintegradas en JCR.

Al menos el 25% de las referencias en todas las revistas suprimidas eran autocitas, con el 71% de las citas en una revista. Un artículo en el Journal of Allergy and Clinical Immunology-In Practice citó otros artículos en la misma revista 191 veces.

Cinco de las revistas suprimidas o marcadas eran en cardiología, incluyendo JACC: Cardiovascular Imaging, que tiene un Factor de Impacto por encima de 10, clasificándo la revista entre las 10 mejores revistas en el campo. Otras tres revistas de cardiología de las que Clarivate ha expresado su preocupación tienen factores de impacto superiores a 5.

¿Por qué no se citan los datos y qué hacer al respecto?

 

data-citation-image

 

Peter Buneman, Greig Christie, Jamie A Davies, Roza Dimitrellou, Simon D Harding, Adam J Pawson, Joanna L Sharman, Yinjun Wu, Why data citation isn’t working, and what to do about it, Database, Volume 2020, 2020, baaa022, https://doi.org/10.1093/databa/baaa022

 

Se describe un sistema que genera automáticamente a partir de una base de datos seleccionada una colección de publicaciones breves convencionales (resúmenes de citas) que describen el contenido de varios componentes de la base de datos. El propósito de estos resúmenes es garantizar que los contribuyentes a la base de datos reciban el crédito apropiado a través de las medidas utilizadas actualmente, como los índices h. Además, estos resúmenes también sirven para dar crédito a publicaciones y personas que son citadas por la base de datos. Al hacer esto, tenemos contar con la granularidad: ¿cuántos resúmenes se deben generar para representar efectivamente las contribuciones a una base de datos? También tenemos que lidiar con la evolución: ¿por cuánto tiempo puede servir un resumen dado como referencia apropiada cuando la base de datos está evolucionando? Describimos una revista específicamente diseñada para contener estos resúmenes de citas.

¿Estamos incentivando la mala ciencia?

 

f8de176e-b522-4c04-82f05cc0522e0d25_source

 

Zimring, James. We\’re Incentivizing Bad Science. Scientific American, a Division of Springer Nature America, Inc.,

Oct 29, 2019

Ver original

 

¿Estamos incentivando la mala ciencia? Las tendencias actuales de la investigación se asemejan a la burbuja financiera de principios del siglo XXI

Nuestro comportamiento se ve profundamente afectado por las estructuras de incentivos que encontramos. Imagina lo que sucedería si los bancos que emitieron préstamos hipotecarios ya no ganaran dinero con los intereses, sino que más bien ganaran dinero mezclando los préstamos convertidos en bonos de inversión que luego vendieran a los inversionistas. Hay un número limitado de personas que tienen la suerte de poder pagar una casa. Una vez que todas esas personas tuvieran hipotecas, los bancos se convertirían en una fábrica de garantías hipotecarias que se habría quedado sin materias primas para fabricar sus productos.

Los bancos podrían simplemente dejar de ganar dinero, o podrían empezar a conceder préstamos a cualquiera que los solicitara, independientemente de la capacidad de pago de la gente. Después de todo, una vez que los préstamos se vendieran a los inversores, el riesgo ya no era del banco. Por supuesto, las agencias de calificación están diseñadas para alertar sobre el riesgo, pero los bancos les pagan por hacerlo, y enojar a la única base de clientes no es un buen negocio. Antes de 2008, sin la intención de hacerlo, el sistema había evolucionado de tal manera que los banqueros estaban específicamente incentivados para inflar una burbuja masiva en la economía, construida sobre préstamos incobrables y deudas insostenibles, y hacer fortuna sin riesgo para ellos mismos, y eso es precisamente lo que hicieron.

Entonces, imaginemos lo que podría pasar si las reglas de la ciencia profesional evolucionaran de tal manera que los científicos se sintieran incentivados a publicar tantos artículos como pudieran y si aquellos que publicaran muchos artículos de poco rigor científico fueran recompensados por aquellos que publicaran menos artículos de mayor rigor? ¿Qué pasaría si los científicos no fueran recompensados por la reproducibilidad a largo plazo y el rigor de sus hallazgos, sino que más bien se convirtieran en una fábrica que produjera y publicara nuevos descubrimientos altamente emocionantes e innovadores, y luego otros científicos y empresas gastaran recursos en los estudios de seguimiento y asumieran todo el riesgo?

Así como los bancos en 2008 ganaron dinero vendiendo los préstamos, lo que condujo a que la calidad de los préstamos dejara de ser significativa para ellos. Del mismo modo, una vez publicados, los resultados innovadores de la nueva ciencia a menudo pasan sin pena ni gloria hasta la siguiente innovación, y debido al sesgo de publicación y al “efecto de cajón de sastre”, nunca volvemos a oír hablar de ellos, ni de si fallan en manos de otros. Por supuesto, la reputación de un buen trabajo afecta a los científicos tanto como a cualquier otra persona, pero uno o dos avances “reales” de un investigador borrarán cualquier problema, incluso un amplio conjunto de otros hallazgos que desaparecieron en la basura del tiempo, ya que nadie más puede reproducirlos. De hecho, en un informe de Bayer Pharmaceuticals, el 65 por ciento de los resultados científicos publicados no fueron reproducibles por los científicos de Bayer cuando intentaron utilizarlos para el desarrollo de fármacos.

 

Según un estudio de Bayer, el 65 por ciento de los resultados científicos publicados no fueron reproducibles por los científicos de Bayer cuando intentaron utilizarlos para el desarrollo de fármacos.

No se trata de una cuestión de fraude o mala conducta científica en la que los científicos inventan datos o mienten a propósito; los datos son reales y fueron realmente observados. Sin embargo, el sistema ferozmente competitivo conduce a una precipitación en la publicación y a un mayor número de resultados de trabajos menos rigurosos. Lo que puede llevar a que los científicos más cuidadosos y autocríticos que dedican más tiempo y recursos a realizar estudios más rigurosos obtengan menor promoción profesional, reciban menos recursos de investigación y menos reconocimiento por su trabajo.

Por supuesto, la publicación científica está sujeta a un alto grado de control de calidad a través del proceso de revisión por pares, que a pesar de los factores políticos y sociales, es una de las “joyas de la corona” de la objetividad científica. Sin embargo, esto está cambiando. El objetivo muy loable de las “revistas de acceso abierto” es asegurar que el público tenga libre acceso a los datos científicos que se financian con sus impuestos.

 

El sistema de comunicación científica ferozmente competitivo conduce a una precipitación en la publicación y a un mayor número de resultados de trabajos menos rigurosos.

 

Sin embargo, las revistas de acceso abierto cobran a los autores de los artículos una cuota sustancial por publicar, con el fin de compensar el dinero perdido por no disponer de suscripciones. Por lo tanto, en lugar de ganar más dinero cuantas más copias de la revista vendan, las revistas de acceso abierto ganan más dinero en función del número de artículos que acepten. Los autores están dispuestos a pagar más para que sus artículos se publiquen en revistas más prestigiosas. Por lo tanto, cuanto más emocionantes sean los hallazgos que publique una revista, más referencias, mayor será el impacto de la revista, más envíos recibirán, más dinero ganarán.

La autorregulación de los científicos de décadas y siglos pasados ha creado la ciencia moderna con todas sus virtudes y defectos. Sin embargo, al igual que los banqueros de principios del siglo XXI, corremos el riesgo de permitir que nuevos incentivos erosionen nuestra autorregulación y distorsionen nuestras percepciones y comportamiento; al igual que los préstamos de riesgo que subyacen a los valores respaldados por hipotecas, las observaciones científicas erróneas pueden formar una burbuja y un edificio inestable. Como la ciencia es en última instancia autocorrectiva, las conclusiones erróneas se corrigen con estudios continuos, pero esto lleva mucho tiempo.

 

La publicación de un preprint se asocia con más atención y citas

 

preprint_post_thumbnail.8f3fc23e

Fu, Darwin Y., Hughey, J. Releasing a preprint is associated with more attention and citations. bioRxiv preprint first posted online Jul. 13, 2019

Texto completo

Los preprints  en las ciencias de la vida están ganando popularidad. La evidencia cuantitativa sobre la relación entre los preprints y las métricas a nivel de artículo de la investigación revisada por pares sigue siendo limitada. Se examinó si tener un preprint en bioRxiv.org estaba asociado con la puntuación de atención de Altmetric y el número de citas del artículo correspondiente revisado por colegas.

Para ello se integraron datos de PubMed, CrossRef, Altmetric y Rxivist (una colección de metadatos de bioRxiv). Para cada una de las 26 revistas (que comprenden un total de 46.451 artículos y 3.817 preimpresiones), se utilizó la regresión log-lineal, ajustada por fecha de publicación y subcampo científico, para estimar los cambios de pliegues de la puntuación de atención y las citas entre artículos con y sin preprints. También se realizó una metarregresión de los cambios en las características a nivel de revista. Mediante el metanálisis de efectos aleatorios en las revistas, la publicación de una preprint se asoció con una puntuación de atención + 1,53 veces mayor (IC del 95%: 1,42 a 1,65) y 1,31 veces más citas + 1 (IC del 95%: 1,24 a 1,38) del artículo revisado por colegas. Las revistas con mayores cambios en la puntuación de atención tendían a tener menores factores de impacto y menores porcentajes de artículos publicados como preprints. En contraste, el cambio de citas de una revista no se asoció con el factor de impacto, el porcentaje de artículos publicados como preprints o el modelo de acceso. Los hallazgos de este estudio observacional pueden ayudar a los investigadores y editores a tomar decisiones informadas sobre cómo incorporar los preprints en su trabajo.

 

Comparación del impacto científico de los libros adquiridos a través de planes de aprobación, peticiones del bibliotecario y adquisiciones impulsadas por el usuario en función de las citas recibidas

 

atrtmvznwsusldbggb7b

 

Tyler, David C. ; Hitt, Brianna D. ; Nterful, Francis A. ; Mettling, McKenna R. “Research Article: “The Scholarly Impact of Books Acquired via Approval Plan Selection, Librarian Orders, and Patron-Driven Acquisitions as Measured by Citation Counts” (Preprints). C&RL preprint 2018

Texto completo

 

El modelo de adquisición impulsada por el usuario (Patron Driver Adquisitions – PDA, por sus siglas en inglés) ha sido una propuesta novedosa, aunque polémica, entre los modelos de adquisición en bibliotecas durante los últimos años, en todo este tiempo se probó en numerosos programas piloto con buenos resultados. Sin embargo, aún hay numerosas dudas entre el personal bibliotecario, especialmente en lo que se refiere a la composición de los planes, paquetes que ofrecen los proveedores y la opinión de los usuarios. La literatura hasta la fecha ha abordado la evaluación de la adquisición impulsada por el usuario (PDA) mediante el análisis de la circulación/uso, las opiniones de los usuarios o de los bibliotecarios sobre la utilidad e idoneidad del modelo, la búsqueda de pruebas de los desequilibrios de la colección y la comprobación de la superposición de las compras impulsadas por el usuario y de los bibliotecarios.

Este estudio aborda el impacto académico y examina los modelos de adquisición comparando los los planes de aprobación, la adquisición por parte de los bibliotecarios y los modelos de adquisición dirigida por el usuario en Ciencias Sociales y Humanidades: Para ello los autores recopilaron muestras aleatorias de libros adquiridos mediante planes de aprobación y pedidos de los bibliotecarios durante cinco años de sus instituciones, y compararon sus citas con los recuentos de libros adquiridos a través del programa PDA. Para el conteo de citas se empleó Google Scholar.

 

 

 

Principios DC1 sobre citación de datos de investigación

data20citation20logo20-20small1

Data Citation Synthesis Group: Joint Declaration of Data Citation Principles. Martone M. (ed.) San Diego CA: FORCE11; 2014 https://doi.org/10.25490/a97f-egyk

Cualquier investigación sólida y reproducible descansa sobre una base de datos sólidos y accesibles. Para que esto sea así tanto en la práctica como en la teoría, los datos deben tener la debida importancia en la práctica de la erudición y estar depositados en un registro académico duradero. En otras palabras, los datos deben considerarse productos legítimos y citables de la investigación. La citación de datos, al igual que la de otras evidencias y fuentes, es una buena práctica de investigación y forma parte del ecosistema académico que apoya la reutilización de datos.

Aqui exponemos los principios DC1 Data citation principles de FORCEE 11:

 

1. Importancia. Los datos deben considerarse productos legítimos y citables de la investigación. Las citas de datos deben tener la misma importancia en el expediente académico que las citas de otros objetos de investigación, tales como publicaciones.

2. Crédito y Atribución. Las citas de datos deben facilitar la atribución de créditos académicos y atribuciones normativas y legales a todos los contribuyentes a los datos, reconociendo que un único estilo o mecanismo de atribución puede no ser aplicable a todos los datos

3. Pruebas. En la literatura académica, cuando y dondequiera que una reivindicación se base en datos, los datos correspondientes deben citarse

4. Identificación Única. Una citación de datos debe incluir un método persistente de identificación que sea automáticamente procesable, globalmente único y ampliamente utilizado por una comunidad (DOI).

5. Acceso al acceso. Las citas de datos deben facilitar el acceso a los propios datos y a los metadatos, documentación, código y otros materiales asociados, según sea necesario para que tanto los seres humanos como las máquinas puedan hacer un uso informado de los datos referenciados

6. Persistencia. Deberían persistir identificadores y metadatos únicos que describan los datos y su disposición, incluso más allá de la vida útil de los datos que describen

7. Especificidad y verificabilidad. Las citas de datos deben facilitar la identificación, el acceso y la verificación de los datos específicos que respaldan una declaración. Las citaciones o metadatos de citación deben incluir información sobre la procedencia y la fijación suficiente para facilitar la verificación de que el corte temporal específico, la versión y/o la parte granular de los datos recuperados posteriormente es la misma que se citó originalmente.

8. Interoperabilidad y flexibilidad. Los métodos de citación de datos deben ser lo suficientemente flexibles para acomodar las prácticas variadas entre comunidades, pero no deben diferir tanto que comprometan la interoperabilidad de las prácticas de citación de datos entre comunidades.

 

 

Bibliotecas, bibliotecarios y otros submundos. Frases y citas sobre bibliotecas, libros y bibliotecarios

Bibliotecas, bibliotecarios y otros submundos. Frases y citas sobre bibliotecas, libros y bibliotecarios

compiladas por Julio Alonso-Arévalo

Descargaar PPS

ver PRESENTACIÓN

Compilación de algunas de las frases y citas más entrañables en torno al libro, las bibliotecas, los bibliotecarios y la información compiladas por Julio Alonso Arévalo.

Puedes encontrar más en el blog Universo Abierto en la sección PreTextos -https://universoabierto.com/tag/pretextos/

24619682110_3a96f64991_z_d

¿Por qué  citamos?: la cultura y la historia de la cita

75

Finnegan, Ruth (2011). [e-Book] Why Do We Quote?: The Culture and History of Quotation, Open Book Publishers, 2011

Texto completo

Este fascinante libro examina las formas en las que compartimos hoy y la curiosa historia de cómo citar se convirtió en parte de nuestra vida cotidiana. Citar proporciona un enlace a nuestros seres queridos, a nuestra herencia religiosa y literaria, y a la sabiduría más allá de las actitudes. También puede ser irritante, condescendiente, pedante y, en algunos casos, ilegal. Este estudio minucioso de Ruth Finnegan arroja nueva luz sobre cómo citar ha sido utilizado-en las tradiciones visuales, orales y escritos alrededor del mundo. Se trata de un ensayo apasionante agradable y leer para cualquier persona interesada en la lengua, la cultura y la literatura, y nos lleva a repensar nuestras ideas sobre la originalidad, la autoría y el plagio.