Archivo de la etiqueta: Citas

La cita trata de reproducir en la escritura una pasión por la lectura

“¿Qué hace que, mientras leo, me detenga, que me asombre determinada frase y no otra? ¿Y qué provoca en mí ese tropiezo? Desencadena todo el procedimiento de la cita, Pero ¿qué es lo que, previamente, ha provocado ese tropiezo? Muy anterior a la cita, más profunda y más oscura, es la invitación: un pequeño flechazo totalmente arbitrario, totalmente contingente e imaginario. […] La invitación tiene que ver con mi deseo y el objeto concreto que extraigo del texto con el fin de conservarlo como recuerdo de una pasión (la pasión de la invitación)…

La invitación es, para la lectura, una figura iniciática: sin ella tal vez sea posible la lectura, pero sin duda no hay placer; sin invitación sólo hay lectura del significado, pero no de la pasión.

[…] La cita trata de reproducir en la escritura una pasión por la lectura, volver a encontrar el repentino fulgor de la invitación, ya que es precisamente la lectura, invitadora y excitante, la que produce la cita. La cita repite, hace que se recuerde la lectura en la escritura: porque en realidad lectura y escritura no son más que una y la misma cosa, la práctica del texto, que es la práctica del papel. La cita es la forma original de todas las prácticas del papel, el recortar y pegar, y esto es un juego de niños”.

Antoine Compagnon.
La segunda mano o el trabajo de la cita.

Los beneficios del acceso abierto para los libros académicos: más descargas y más citas

Neylon, Cameron, Alkim Ozaygen, Lucy Montgomery, Chun-Kai (Karl) Huang, Ros Pyne, Mithu Lucraft, and Christina Emery. 2021. “More Readers in More Places: The Benefits of Open Access for Scholarly Books”. Insights 34 (1): 27. DOI: http://doi.org/10.1629/uksg.558

El acceso abierto a contenidos académicos ha crecido sustancialmente en los últimos años. Esto incluye el número de libros publicados en acceso abierto en línea. Sin embargo, hay pocos estudios sobre cómo los patrones de uso (a través de descargas, citas y visibilidad en la web) de estos libros pueden diferir de sus homólogos cerrados. Esta información no sólo es importante para los editores de libros, sino también para los investigadores de disciplinas en las que los libros son la norma.

Este artículo informa sobre los resultados de la comparación de muestras de libros publicados por Springer Nature para arrojar luz sobre las diferencias en los patrones de uso entre los libros de acceso abierto y los cerrados. El estudio incluye una selección de 281 libros de acceso abierto y una muestra de 3.653 libros cerrados (extraída de 21.059 libros cerrados mediante un muestreo aleatorio estratificado). Los libros están estratificados por combinaciones de tipo de libro, disciplina y año de publicación para permitir igualmente comparaciones dentro de cada estrato y maximizar la potencia estadística de la muestra. Los resultados muestran una mayor diversidad geográfica de uso, un mayor número de descargas y más citas para los libros de acceso abierto en todos los estratos. Es importante destacar que los libros de acceso abierto han aumentado el acceso y el uso por parte de poblaciones tradicionalmente desatendidas.

Los datos abiertos aumentan el impacto de las revistas

Zhang, L., Ma, L. Does open data boost journal impact: evidence from Chinese economicsScientometrics (2021). https://doi.org/10.1007/s11192-021-03897-z

Texto completo

Para fomentar la transparencia de la investigación y su reproducción, cada vez más revistas exigen a los autores que compartan los conjuntos de datos originales y los procedimientos analíticos que respaldan sus publicaciones. ¿Impulsan los datos abiertos el impacto de las revistas? En este artículo, se presenta uno de los primeros estudios empíricos que evalúan los efectos de los datos abiertos en el impacto de las revistas.

La revista China Industrial Economics (CIE) obligó a los autores a poner en abierto los datos de sus investigaciones a finales de 2016, siendo la primera en adoptar los datos abiertos entre las revistas chinas y proporcionando un experimento natural para la evaluación de políticas. Para ello se utilizaron los datos de 37 revistas chinas de economía de entre 2001 a 2019 y se aplicó el método de control sintético para estimar causalmente los efectos de los datos abiertos, los resultados muestran que los datos abiertos han aumentado significativamente las citas de los artículos de las revistas. De promedio, las citas actuales y de segundo año de los artículos publicados con CIE han aumentado entre 1 y 4 veces, y los artículos publicados antes de la política de datos abiertos también se beneficiaron del efecto indirecto. Los resultados sugieren que las revistas pueden aprovechar los datos abiertos obligatorios para desarrollar su reputación y amplificar el impacto académico.

Libros de acceso abierto en el ámbito de las Humanidades y las Ciencias Sociales: una ventaja altmétrica para el acceso abierto

Taylor, M. Open Access Books in the Humanities and Social Sciences: an Open Access Altmetric Advantage. https://doi.org/10.1007/s11192-020-03735-8

Descargar

En la última década han surgido dos fenómenos significativos en la comunicación de la investigación: el aumento de la publicación de acceso abierto (OA) y la evidencia del intercambio en línea en forma de altmetrics. Se ha estudiado poco el efecto del acceso abierto en el intercambio en línea de artículos de revistas, y aun menos en el caso de los libros. Este trabajo examina las altmetrías de un conjunto de 32.222 libros (de los cuales el 5% son de acceso abiero (OA) y un conjunto de 220.527 capítulos (de los cuales el 7% son de OA) indexados por la base de datos académica Dimensions in the Social Sciences and Humanities. Tanto los libros como los capítulos de AA tienen un uso significativamente mayor en las redes sociales, una mayor cobertura en los medios de comunicación y en los blogs, y pruebas de mayores índices de impacto social en los documentos políticos. Los capítulos en OA tienen mayores índices de cobertura en Wikipedia que sus equivalentes sin OA, y es más probable que se compartan en Mendeley. Incluso dentro de las Humanidades y las Ciencias Sociales, las diferencias disciplinarias en la actividad altmétrica son evidentes. El efecto se confirma en el caso de los capítulos, aunque los problemas de muestreo impiden llegar a una conclusión firme de que el OA facilita la atención adicional a nivel de todo el libro, la aparente ventaja de las altmétricas de OA sugiere que el movimiento hacia el OA está aumentando el intercambio social y un impacto más amplio.

Un artículo retractado se sigue citando 11 años después

Schneider, J., Ye, D., Hill, A.M. et al. Continued post-retraction citation of a fraudulent clinical trial report, 11 years after it was retracted for falsifying data. Scientometrics 125, 2877–2913 (2020). https://doi.org/10.1007/s11192-020-03631-1

Un nuevo estudio publicado en la revista Scientometrics, descubrió que un informe de ensayo clínico retractado sigue siendo citado 11 años después de su retractación, y que las citas en realidad aumentaron después de que se retractara.

El equipo de Schneider revisó las citas de un artículo de 2005 en el campo de la medicina respiratoria (Matsuyama et al. En Chest 128 (6): 3817–3827, 2005. https://doi.org/10.1378/chest.128.6 .3817) que encontró que los ácidos grasos omega-3 son útiles para reducir los marcadores inflamatorios en pacientes con enfermedad pulmonar obstructiva crónica. El artículo fue retirado en 2008 por informar sobre datos falsificados de ensayos clínicos.

Sin embargo, se sigue citando para apoyar la intervención de nutrición médica. El análisis de Schneider cubrió 148 citas directas del artículo de 2006 a 2019 y 2.542 citas de segunda generación. La retractación no se mencionó en el 96% de las 112 citas directas posteriores a la retracción para las que pudo estudiar el contexto de la cita. El ejemplo demuestra problemas con la forma en que el entorno actual de bibliotecas digitales comunica el estado de retractación de los artículos científicos.

La forma en que se cita un artículo es importante, por ejemplo, si los autores parecen ser conscientes de la retractación, si utilizan el artículo retractado como base para construir su propio trabajo o si se cita para un concepto general o la historia de la investigación sobre un tema. asunto particular. Al analizar el contexto y el número de citas, Schneider encontró que más del 41% de las citas posteriores a la retracción del artículo de medicina respiratoria que no mencionaban la retracción también describían el artículo en detalle.

Clarivate identifica a los pioneros científicos mundiales en la lista anual de investigadores altamente citados

Highly Cited Researchers ™ 2020.

La lista anual identifica a los investigadores que demostraron una influencia significativa en su campo o campos elegidos a través de la publicación de múltiples artículos muy citados durante la última década. Sus nombres provienen de las publicaciones que se ubican en el 1% superior por citas por campo y año de publicación en el índice de citas de Web of Science ™.

La metodología que determina el «quién es quién» de los investigadores más influyentes se basa en los datos y análisis realizados por expertos bibliométricos y científicos de datos del Institute for Scientific Information ™ de Clarivate. También utiliza los recuentos para identificar los países y las instituciones de investigación donde se encuentran estas élites científicas.

Estados Unidos domina la lista de investigadores reconocidos por sus pares, pero el panorama global cambia a medida que los investigadores chinos captan una participación del 12%.

Los hallazgos clave para 2020 muestran:

  • Este año han sido reconocidos 6.167 investigadores de más de 60 países y regiones.
  • Si bien Estados Unidos continúa dominando la lista como el país del mayor número de investigadores altamente citados, con 2.650 autores, que representan el 41.5% de los investigadores en la lista, su participación relativa en la lista continúa disminuyendo (44% en 2019). .
  • La Universidad de Harvard, con 188 investigadores, es una vez más la institución con la mayor concentración de investigadores altamente citados en el mundo. Sus vecinos, el Broad Institute y el Massachusetts Institute of Technology, se unen a ellos para encabezar la lista de instituciones líderes a nivel mundial, hogar de 61 y 53 investigadores altamente citados, respectivamente.
  • El lugar de China continental en la lista continúa aumentando; ahora tiene 770 (12,1% o 1: 8) investigadores en la lista, en comparación con 636 o 10,2% en 2019. Su clasificación se ha visto impulsada por la notable entrada en el los diez primeros de la Universidad de Tsinghua, Beijing, subiendo 10 lugares del 19 al 9 en la lista junto con la entrada en 2020 de las universidades de Pekín y Zhejiang a los escalones superiores de la lista.
  • Singapur se muestra con fuerza, representada por la Universidad Tecnológica de Nanyang y la Universidad Nacional de Singapur.
  • Europa también tiene una buena cantidad de buenas noticias. El número de investigadores altamente citados con sede en Alemania y los Países Bajos ha aumentado este año; ambos mostraron una caída el año pasado. La Sociedad Max Planck en Alemania permanece en el número 5 en la lista de instituciones, mientras que la Universidad de Utrecht (27 investigadores) y la Universidad e Investigación de Wageningen (24 investigadores) en los Países Bajos subieron al nivel superior de las universidades enumeradas. El Instituto Suizo de Bioinformática subió 20 puestos en la clasificación institucional con la incorporación de una docena de investigadores altamente citados este año.
  • La lista de este año incluye 26 premios Nobel, incluidos tres anunciados este año

Correlaciones entre la atención recibida por una investigación en los medios sociales y las citas científicas

 

87bc01c639775e05fc732a2b9c820614

 

 Anderson, P. Sage… et al. Case Study Exploring Associations Between Popular Media Attention of Scientific Research and Scientific Citations. PLoS ONE 15(7): e0234912.
DOI: 10.1371/journal.pone.0234912

Texto completo

 

La asociación entre la mención de la investigación científica en los medios populares (p. Ej., Los principales medios de comunicación o las plataformas de redes sociales) y el impacto científico (p. Ej., Las citas) aún no se ha explorado por completo. El propósito de este estudio fue aclarar esta correlación, mientras se tienen en cuenta algunos otros factores que probablemente influyen en el impacto científico (por ejemplo, la reputación de los científicos que realizan la investigación y la revista académica en la que se publicó la investigación).

Para lograr este propósito, se evaluaron aproximadamente 800 artículos revisados ​​por pares que describen la investigación original para determinar el impacto científico, la atención de los medios populares y la reputación de los científicos / autores y el lugar de publicación. Se produjo un modelo de ecuación estructural que describe la relación entre el impacto no científico (medios populares) y el impacto científico (citas), al tiempo que representa la reputación del autor / científico y la revista.

El modelo resultante reveló una fuerte asociación entre la cantidad de atención de los medios populares dada a un proyecto de investigación científica y la publicación correspondiente y el número de veces que esa publicación se cita en literatura científica revisada por pares.

Estos resultados indican que (1) las publicaciones científicas revisadas por pares que reciben más atención en medios no científicos tienen más probabilidades de ser citadas que las publicaciones científicas que reciben menos atención de los medios populares, y (2) los medios no científicos están asociados con la agenda científica.

Estos resultados pueden informar a los científicos que utilizan cada vez más los medios populares para informar al público en general y a los científicos sobre su trabajo científico.

Estos resultados también podrían informar a los gestores de la enseñanza superior y los mecanismos de financiación de la investigación, que basan las decisiones en parte en el impacto científico.

 

Clarivate suprime 33 revistas de los grandes editores científicos por exceso de autocitas a sí mismas

 

clarivate-logo

 

ClarivateMajor indexing service sounds alarm on self-citations by nearly 50 journals. Retraction Watch,

Texto completo

 

Más de 33 revistas  han sido suprimidas de Journal impact factor, ya que más del 70% de las citas en una revista se hicieron a otros artículos de esa misma revista. Otra publicó un solo artículo que citaba casi otros 200 artículos en la revista.

 

 

Clarivate, la compañía que gestiona el Factor de Impacto, está tomando medidas para combatir ese comportamiento, suprimiendo 33 revistas de su servicio de indexación y sometiendo a 15 más a observacion, todas por una aparente excesiva auto-citación que impulsó a estas revistas en el ranking de las revistas.

La lista incluye algunas de las grandes compañías del mundo de la edición científica: nueve eran revistas publicadas por Elsevier, siete por Springer Nature, seis por Taylor & Francis y cinco por Wiley.

Dada la dependencia de muchas universidades en los rankings de revistas para juzgar el trabajo de sus investigadores como parte de las decisiones de tenencia y promoción, la supresión de una revista de Clarivate significa negarle un Factor de Impacto, que puede tener efectos a largo plazo. Los factores de impacto se basan en citas promedio de artículos en una revista durante un período de tiempo concreto. Muchos organizaciones,  incluidos Retraction Wacht, han argumentado que el Impact Factor no es la mejor manera de juzgar la investigación, por razones que incluyen la relativa facilidad de manipular tales métricas.

Web of Science de Clarivate indexa 21.000 revistas, pero solo 12.000 están incluidas en el Journal Citation Report (JCR) anual y reciben Factores de Impacto. Actualmente hay dos razones para la supresión de la JCR:

La auticitación de la revista y el «apilamiento de citas», comportamiento que a veces se conoce como participar en «colegios invisibles de citas» o «anillos de citas«. Ninguna de las supresiones de este año fueron por el apilamiento de citas. Cuando la empresa retira una revista del JCR, continúa contando sus citas, pero no le asigna un Factor de Impacto.

La compañía ha cambiado la forma en que considera la autocita y revisó su metodología, dijo la editora en jefe de Web of Science, Nandita Quaderi, en respuesta las pautas que se han observado en los últimos años.

Este año, Clarivate también sometió a 15 revistas a exámenes editoriales de preocupación. Tales revistas tenían un pequeño número de artículos con niveles muy altos de citas a artículos en la misma revista que pueden tener un efecto significativo en el Factor de Impacto y en el ránking. Quaderi dijo que juzgar solo los niveles generales de autocitación de las revistas pasaría por alto tales patrones, porque no tomaría en cuenta directamente cómo estas citas se «concentran» en artículos o períodos de tiempo particulares.

Nada cambia para las revistas JCR sujetas a tales indicadores, pero se monitorean de cerca para su reevaluación y pueden perder sus Factores de Impacto en los años siguientes o ser eliminados de la indexación por completo.

Este movimiento marca solo la segunda vez que Clarivate ha emitido análisis de revisión. En 2018, lo hicieron con cinco revistas en el campo óseo, cuatro de las cuales fueron suprimidas al año siguiente. Las cinco actualmente están de nuevo reintegradas en JCR.

Al menos el 25% de las referencias en todas las revistas suprimidas eran autocitas, con el 71% de las citas en una revista. Un artículo en el Journal of Allergy and Clinical Immunology-In Practice citó otros artículos en la misma revista 191 veces.

Cinco de las revistas suprimidas o marcadas eran en cardiología, incluyendo JACC: Cardiovascular Imaging, que tiene un Factor de Impacto por encima de 10, clasificándo la revista entre las 10 mejores revistas en el campo. Otras tres revistas de cardiología de las que Clarivate ha expresado su preocupación tienen factores de impacto superiores a 5.

¿Por qué no se citan los datos y qué hacer al respecto?

 

data-citation-image

 

Peter Buneman, Greig Christie, Jamie A Davies, Roza Dimitrellou, Simon D Harding, Adam J Pawson, Joanna L Sharman, Yinjun Wu, Why data citation isn’t working, and what to do about it, Database, Volume 2020, 2020, baaa022, https://doi.org/10.1093/databa/baaa022

 

Se describe un sistema que genera automáticamente a partir de una base de datos seleccionada una colección de publicaciones breves convencionales (resúmenes de citas) que describen el contenido de varios componentes de la base de datos. El propósito de estos resúmenes es garantizar que los contribuyentes a la base de datos reciban el crédito apropiado a través de las medidas utilizadas actualmente, como los índices h. Además, estos resúmenes también sirven para dar crédito a publicaciones y personas que son citadas por la base de datos. Al hacer esto, tenemos contar con la granularidad: ¿cuántos resúmenes se deben generar para representar efectivamente las contribuciones a una base de datos? También tenemos que lidiar con la evolución: ¿por cuánto tiempo puede servir un resumen dado como referencia apropiada cuando la base de datos está evolucionando? Describimos una revista específicamente diseñada para contener estos resúmenes de citas.

¿Estamos incentivando la mala ciencia?

 

f8de176e-b522-4c04-82f05cc0522e0d25_source

 

Zimring, James. We\’re Incentivizing Bad Science. Scientific American, a Division of Springer Nature America, Inc.,

Oct 29, 2019

Ver original

 

¿Estamos incentivando la mala ciencia? Las tendencias actuales de la investigación se asemejan a la burbuja financiera de principios del siglo XXI

Nuestro comportamiento se ve profundamente afectado por las estructuras de incentivos que encontramos. Imagina lo que sucedería si los bancos que emitieron préstamos hipotecarios ya no ganaran dinero con los intereses, sino que más bien ganaran dinero mezclando los préstamos convertidos en bonos de inversión que luego vendieran a los inversionistas. Hay un número limitado de personas que tienen la suerte de poder pagar una casa. Una vez que todas esas personas tuvieran hipotecas, los bancos se convertirían en una fábrica de garantías hipotecarias que se habría quedado sin materias primas para fabricar sus productos.

Los bancos podrían simplemente dejar de ganar dinero, o podrían empezar a conceder préstamos a cualquiera que los solicitara, independientemente de la capacidad de pago de la gente. Después de todo, una vez que los préstamos se vendieran a los inversores, el riesgo ya no era del banco. Por supuesto, las agencias de calificación están diseñadas para alertar sobre el riesgo, pero los bancos les pagan por hacerlo, y enojar a la única base de clientes no es un buen negocio. Antes de 2008, sin la intención de hacerlo, el sistema había evolucionado de tal manera que los banqueros estaban específicamente incentivados para inflar una burbuja masiva en la economía, construida sobre préstamos incobrables y deudas insostenibles, y hacer fortuna sin riesgo para ellos mismos, y eso es precisamente lo que hicieron.

Entonces, imaginemos lo que podría pasar si las reglas de la ciencia profesional evolucionaran de tal manera que los científicos se sintieran incentivados a publicar tantos artículos como pudieran y si aquellos que publicaran muchos artículos de poco rigor científico fueran recompensados por aquellos que publicaran menos artículos de mayor rigor? ¿Qué pasaría si los científicos no fueran recompensados por la reproducibilidad a largo plazo y el rigor de sus hallazgos, sino que más bien se convirtieran en una fábrica que produjera y publicara nuevos descubrimientos altamente emocionantes e innovadores, y luego otros científicos y empresas gastaran recursos en los estudios de seguimiento y asumieran todo el riesgo?

Así como los bancos en 2008 ganaron dinero vendiendo los préstamos, lo que condujo a que la calidad de los préstamos dejara de ser significativa para ellos. Del mismo modo, una vez publicados, los resultados innovadores de la nueva ciencia a menudo pasan sin pena ni gloria hasta la siguiente innovación, y debido al sesgo de publicación y al «efecto de cajón de sastre», nunca volvemos a oír hablar de ellos, ni de si fallan en manos de otros. Por supuesto, la reputación de un buen trabajo afecta a los científicos tanto como a cualquier otra persona, pero uno o dos avances «reales» de un investigador borrarán cualquier problema, incluso un amplio conjunto de otros hallazgos que desaparecieron en la basura del tiempo, ya que nadie más puede reproducirlos. De hecho, en un informe de Bayer Pharmaceuticals, el 65 por ciento de los resultados científicos publicados no fueron reproducibles por los científicos de Bayer cuando intentaron utilizarlos para el desarrollo de fármacos.

 

Según un estudio de Bayer, el 65 por ciento de los resultados científicos publicados no fueron reproducibles por los científicos de Bayer cuando intentaron utilizarlos para el desarrollo de fármacos.

No se trata de una cuestión de fraude o mala conducta científica en la que los científicos inventan datos o mienten a propósito; los datos son reales y fueron realmente observados. Sin embargo, el sistema ferozmente competitivo conduce a una precipitación en la publicación y a un mayor número de resultados de trabajos menos rigurosos. Lo que puede llevar a que los científicos más cuidadosos y autocríticos que dedican más tiempo y recursos a realizar estudios más rigurosos obtengan menor promoción profesional, reciban menos recursos de investigación y menos reconocimiento por su trabajo.

Por supuesto, la publicación científica está sujeta a un alto grado de control de calidad a través del proceso de revisión por pares, que a pesar de los factores políticos y sociales, es una de las «joyas de la corona» de la objetividad científica. Sin embargo, esto está cambiando. El objetivo muy loable de las «revistas de acceso abierto» es asegurar que el público tenga libre acceso a los datos científicos que se financian con sus impuestos.

 

El sistema de comunicación científica ferozmente competitivo conduce a una precipitación en la publicación y a un mayor número de resultados de trabajos menos rigurosos.

 

Sin embargo, las revistas de acceso abierto cobran a los autores de los artículos una cuota sustancial por publicar, con el fin de compensar el dinero perdido por no disponer de suscripciones. Por lo tanto, en lugar de ganar más dinero cuantas más copias de la revista vendan, las revistas de acceso abierto ganan más dinero en función del número de artículos que acepten. Los autores están dispuestos a pagar más para que sus artículos se publiquen en revistas más prestigiosas. Por lo tanto, cuanto más emocionantes sean los hallazgos que publique una revista, más referencias, mayor será el impacto de la revista, más envíos recibirán, más dinero ganarán.

La autorregulación de los científicos de décadas y siglos pasados ha creado la ciencia moderna con todas sus virtudes y defectos. Sin embargo, al igual que los banqueros de principios del siglo XXI, corremos el riesgo de permitir que nuevos incentivos erosionen nuestra autorregulación y distorsionen nuestras percepciones y comportamiento; al igual que los préstamos de riesgo que subyacen a los valores respaldados por hipotecas, las observaciones científicas erróneas pueden formar una burbuja y un edificio inestable. Como la ciencia es en última instancia autocorrectiva, las conclusiones erróneas se corrigen con estudios continuos, pero esto lleva mucho tiempo.