Archivo de la etiqueta: Impacto

7 consejos para aumentar las citas de tus artículos de investigación

 

increase-citation-score

7 Tips to Increase Your Citation Score

Ver original

Ver además

Acciones inmediatas para mejorar la visibilidad científica

 

La publicación de artículos de investigación en el ámbito académico es muy importante. Conseguir muchas citas de tu trabajo de investigación demuestra la contribución de tu obra a la investigación. El principal factor cuando tenemos pocas citas está relacionado entre otros factores con la poca visibilidad entre la comunidad científica. En este artículo, Ilovephd proporciona 7 consejos fáciles para aumentar la posibilidad de citación de un trabajo en Google Scholar, Research Gate y Web of Science, entre otros.

 

1. Nombre de autor consistente

  • Los nombres de los autores son identificadores de una obra que ayudan a otro investigador a encontrar el trabajo de investigación de manera exacta y unívoca.
  • El uso de un formato de nombre coherente a lo largo de la carrera académica puede fortalecer la capacidad descubrimiento y por lo tanto de citación.

2. Utilizar SEO para un artículo

  • Search Engine Optimization (SEO) es el elemento clave que ayudará a que tu artículo obtenga una visibilidad orgánica fácil para que cualquier persona pueda encontrar la palabra clave adecuada a través de los motores de búsqueda.
  • El uso adecuado de palabras clave específicas en el área de título, resumen y materias ayudará a los motores de búsqueda a encontrar tu artículo en las primeras posiciones de la página de resultados de la búsqueda.
  • Obviamente, una buena visibilidad incrementa las posibilidades de obtener una citación.

3. Publica todos los datos de tu investigación

  • Una vez que hayas publicado tu artículo en una revista, también puede publicar los conjuntos de datos que han contribuido a la elaboración del artículo como estadísticas, entrevistas, presentaciones, … en sitios como Mendeley Data o Figshare
  • Los conjuntos de datos están directamente relacionados con tu trabajo de investigación, por lo que las personas que utilizan tus datos también citan el artículo o los mismos datos.
  • La publicación de conjuntos de datos es una buena práctica para incrementar la visibilidad de tu investigación.

4. Publica en revistas de alto impacto.

  • Selecciona las mejor revistas posible para publicar tu artículo.
  • Muchos investigadores tienen mayor confianza en los artículos publicados en revistas de alto factor de impacto.
  • Además, citar una fuente más confiable también aumenta la tasa de aceptación de un manuscrito.

5. Publicar un documento de revisión para aumentar la capacidad de citación

  • Es una estrategia probada que, publicando un artículo de revisión se obtienen más citas. También publicando comentarios o reseñas en blogs, prensa, etc.
  • Muchos investigadores buscan documentos de revisión para comprender mejor el trabajo de investigación.
  • La publicación de una revisión de buena calidad en una revista de alto impacto aumenta las citas.

6. Publicar en revistas de acceso abierto

  • Las revistas de acceso abierto (OA) son revistas de libre acceso, que se pueden descargar fácilmente de Internet sin ningún tipo de barrera de acceso, lo que aumentará el numero de lectores y consecuentemente la posibilidad de ser citado.
  • La amplia disponibilidad de las revistas de la OA mejor la capacidad citación sin lugar a dudas.

7. Compartir preprints en línea en los medios sociales

  • Los preprints son la primera versión del artículos antes de la revisión por parte del comité de pares
  • Comparte tus preprints de investigación en medios sociales como Facebook, LinkedIn, ResearchGate y Reddit(r/Science, o repositoiros de preprints como ArXiv, SocArchiv…
  • La disponibilidad gratuita de tus nuevos hallazgos en línea garantiza más citas del trabajo.

 

 

¿Estamos incentivando la mala ciencia?

 

f8de176e-b522-4c04-82f05cc0522e0d25_source

 

Zimring, James. We\’re Incentivizing Bad Science. Scientific American, a Division of Springer Nature America, Inc.,

Oct 29, 2019

Ver original

 

¿Estamos incentivando la mala ciencia? Las tendencias actuales de la investigación se asemejan a la burbuja financiera de principios del siglo XXI

Nuestro comportamiento se ve profundamente afectado por las estructuras de incentivos que encontramos. Imagina lo que sucedería si los bancos que emitieron préstamos hipotecarios ya no ganaran dinero con los intereses, sino que más bien ganaran dinero mezclando los préstamos convertidos en bonos de inversión que luego vendieran a los inversionistas. Hay un número limitado de personas que tienen la suerte de poder pagar una casa. Una vez que todas esas personas tuvieran hipotecas, los bancos se convertirían en una fábrica de garantías hipotecarias que se habría quedado sin materias primas para fabricar sus productos.

Los bancos podrían simplemente dejar de ganar dinero, o podrían empezar a conceder préstamos a cualquiera que los solicitara, independientemente de la capacidad de pago de la gente. Después de todo, una vez que los préstamos se vendieran a los inversores, el riesgo ya no era del banco. Por supuesto, las agencias de calificación están diseñadas para alertar sobre el riesgo, pero los bancos les pagan por hacerlo, y enojar a la única base de clientes no es un buen negocio. Antes de 2008, sin la intención de hacerlo, el sistema había evolucionado de tal manera que los banqueros estaban específicamente incentivados para inflar una burbuja masiva en la economía, construida sobre préstamos incobrables y deudas insostenibles, y hacer fortuna sin riesgo para ellos mismos, y eso es precisamente lo que hicieron.

Entonces, imaginemos lo que podría pasar si las reglas de la ciencia profesional evolucionaran de tal manera que los científicos se sintieran incentivados a publicar tantos artículos como pudieran y si aquellos que publicaran muchos artículos de poco rigor científico fueran recompensados por aquellos que publicaran menos artículos de mayor rigor? ¿Qué pasaría si los científicos no fueran recompensados por la reproducibilidad a largo plazo y el rigor de sus hallazgos, sino que más bien se convirtieran en una fábrica que produjera y publicara nuevos descubrimientos altamente emocionantes e innovadores, y luego otros científicos y empresas gastaran recursos en los estudios de seguimiento y asumieran todo el riesgo?

Así como los bancos en 2008 ganaron dinero vendiendo los préstamos, lo que condujo a que la calidad de los préstamos dejara de ser significativa para ellos. Del mismo modo, una vez publicados, los resultados innovadores de la nueva ciencia a menudo pasan sin pena ni gloria hasta la siguiente innovación, y debido al sesgo de publicación y al “efecto de cajón de sastre”, nunca volvemos a oír hablar de ellos, ni de si fallan en manos de otros. Por supuesto, la reputación de un buen trabajo afecta a los científicos tanto como a cualquier otra persona, pero uno o dos avances “reales” de un investigador borrarán cualquier problema, incluso un amplio conjunto de otros hallazgos que desaparecieron en la basura del tiempo, ya que nadie más puede reproducirlos. De hecho, en un informe de Bayer Pharmaceuticals, el 65 por ciento de los resultados científicos publicados no fueron reproducibles por los científicos de Bayer cuando intentaron utilizarlos para el desarrollo de fármacos.

 

Según un estudio de Bayer, el 65 por ciento de los resultados científicos publicados no fueron reproducibles por los científicos de Bayer cuando intentaron utilizarlos para el desarrollo de fármacos.

No se trata de una cuestión de fraude o mala conducta científica en la que los científicos inventan datos o mienten a propósito; los datos son reales y fueron realmente observados. Sin embargo, el sistema ferozmente competitivo conduce a una precipitación en la publicación y a un mayor número de resultados de trabajos menos rigurosos. Lo que puede llevar a que los científicos más cuidadosos y autocríticos que dedican más tiempo y recursos a realizar estudios más rigurosos obtengan menor promoción profesional, reciban menos recursos de investigación y menos reconocimiento por su trabajo.

Por supuesto, la publicación científica está sujeta a un alto grado de control de calidad a través del proceso de revisión por pares, que a pesar de los factores políticos y sociales, es una de las “joyas de la corona” de la objetividad científica. Sin embargo, esto está cambiando. El objetivo muy loable de las “revistas de acceso abierto” es asegurar que el público tenga libre acceso a los datos científicos que se financian con sus impuestos.

 

El sistema de comunicación científica ferozmente competitivo conduce a una precipitación en la publicación y a un mayor número de resultados de trabajos menos rigurosos.

 

Sin embargo, las revistas de acceso abierto cobran a los autores de los artículos una cuota sustancial por publicar, con el fin de compensar el dinero perdido por no disponer de suscripciones. Por lo tanto, en lugar de ganar más dinero cuantas más copias de la revista vendan, las revistas de acceso abierto ganan más dinero en función del número de artículos que acepten. Los autores están dispuestos a pagar más para que sus artículos se publiquen en revistas más prestigiosas. Por lo tanto, cuanto más emocionantes sean los hallazgos que publique una revista, más referencias, mayor será el impacto de la revista, más envíos recibirán, más dinero ganarán.

La autorregulación de los científicos de décadas y siglos pasados ha creado la ciencia moderna con todas sus virtudes y defectos. Sin embargo, al igual que los banqueros de principios del siglo XXI, corremos el riesgo de permitir que nuevos incentivos erosionen nuestra autorregulación y distorsionen nuestras percepciones y comportamiento; al igual que los préstamos de riesgo que subyacen a los valores respaldados por hipotecas, las observaciones científicas erróneas pueden formar una burbuja y un edificio inestable. Como la ciencia es en última instancia autocorrectiva, las conclusiones erróneas se corrigen con estudios continuos, pero esto lleva mucho tiempo.

 

Desentrañar el compromiso y el impacto de la investigación académica.

 

thumb

 

Szomszor, Martin; Draux, Hélène; Sorensen, Aaron A. (2018): Unraveling the Engagement and Impact of Academic Research. figshare. Report. https://doi.org/10.6084/m9.figshare.6194894.v1

 

El estudio, realizado por el equipo de consultoría de Digital Science, concluyó que los responsables de la formulación de políticas constituyen la comunidad principal que se ocupa de la investigación sobre la malaria, mientras que los profesionales y los principales medios de comunicación eran los más destacados en relación con la enfermedad de Alzheimer.

Estrategias de visibilidad para la producción científica en revistas electrónicas de acceso abierto

 

seach_engine_optimisation_image-600x450

 May Portuguez Castro, Marisol Rey Castillo, Marcela Georgina Gómez Zermeño. Estrategias de visibilidad para la producción científica en revistas electrónicas de acceso abierto: revisión sistemática de literatura.”. Education in the knowledge society (EKS), ISSN-e 2444-8729, ISSN 1138-9737, Nº. 20, 2019

Texto completo

Una de las principales finalidades de la publicación es ejercer impacto en la nueva generación de conocimiento a través de la citación. Publicar no es suficiente: para trascender es necesario ser citado. Sin embargo, el asunto es complejo y requiere atención desde varios frentes, uno de ellos, las estrategias de visibilidad que permitan futuras citaciones. La presente revisión sistemática de literatura (SLR) tiene por objeto analizar artículos sobre impacto de citas, producidos desde 2016 hasta 2018, registrados en las bases de datos Scopus y Web of Science, con el fin de identificar estrategias de visibilidad de la producción científica. El trabajo se centra en tres focos: el contexto y tipo de estudios realizados sobre el tema, las estrategias usadas y recomendaciones para incrementar la citación en revistas de acceso abierto. Entre los hallazgos se destaca el uso de la Internet como eje para la visibilidad a partir de diversas herramientas y se recomiendan diferentes estrategias para ser replicadas en este tipo de publicaciones.

 

El impacto de la innovación: Innovación para el bien común

 

51plmavnkal._sx316_bo1204203200_

Robert McLean and John Gargani. Scaling Impact: Innovation for the Public GoodRoutledge, IDRC, 2019

Texto completo

PDF | Epub | HTML5 | Order the book

 

Scaling Impact introduce un enfoque nuevo y práctico para medir los impactos positivos de la investigación y la innovación. Inspirado por innovadores científicos y emprendedores líderes de África, Asia, el Caribe, América Latina y el Medio Oriente, este libro presenta una síntesis de una diversidad sin igual y una ingenuidad fundamentada. El resultado es una perspectiva diferente sobre cómo lograr el impacto que importa, y un desafío importante para el paradigma predominante de más es mejor.

Para las organizaciones e individuos que trabajan para cambiar el mundo para mejor, el impacto de la ampliación es un objetivo común y un objetivo bien fundado. El mundo está cambiando rápidamente, y problemas aparentemente insolubles como la degradación del medio ambiente o la aceleración de la desigualdad nos presionan para que nos vaya mejor entre nosotros y con nuestro medio ambiente como comunidad global. Desafíos como estos parecen exigir una escala significativa de acción, y aquí los autores argumentan que un enfoque más creativo y crítico de la escalabilidad es posible y esencial.

Para fomentar la asimilación y el co-desarrollo, los autores presentan principios prácticos que pueden ayudar a las organizaciones y a los innovadores a diseñar, gestionar y evaluar estrategias de escalamiento. Scaling Impact es una lectura esencial para los profesionales y profesionales del desarrollo y la innovación, pero también para los investigadores, estudiantes, evaluadores y responsables de la formulación de políticas con el deseo de provocar un cambio significativo.

Directrices de OpenAIRE para administradores de los Sistemas de Gestión de la Investigación (CRIS)

rim

OpenAIRE Guidelines for CRIS Managers

https://guidelines.openaire.eu/en/latest/cris/index.html

 

La gestión de la información de investigación (RIM) es la agregación, conservación y utilización de la información sobre la investigación y se está convirtiendo en un área de creciente interés y relevancia en muchas bibliotecas universitarias. Un CRIS, también conocidos como Research Information Management o RIMS (Sistemas de Gestión de la investigación) son sistemas de información que sirven para recoger y difundir toda la información relacionada con las actividades de investigación de una institución.

Las Directrices proporcionan orientación para que los administradores de CRIS expongan sus metadatos de forma compatible con la infraestructura de OpenAIRE. Al implementar las Directrices, los gestores de CRIS apoyan la inclusión y, por tanto, la reutilización de metadatos en sus sistemas dentro de la infraestructura OpenAIRE. Para los desarrolladores de las plataformas CRIS, las Directrices proporcionan orientación para añadir funcionalidades de apoyo a los gestores y usuarios de CRIS. El intercambio de información entre los distintos sistemas CRIS y la infraestructura OpenAIRE es un ejemplo de intercambio de datos punto a punto entre sistemas CRIS, ya que la propia infraestructura de OpenAIRE es un sistema CRIS.

CERIF (Common European Research Information Format) es un modelo de datos estándar para la información sobre la investigación y una recomendación de la Unión Europea a los Estados miembros. La Unión Europea transfirió el cuidado y la custodia del CERIF a euroCRIS (http://www.eurocris.org), una organización sin ánimo de lucro dedicada a la interoperabilidad de los sistemas de información sobre investigación (CRIS). Además de un modelo de dominio y un modelo de datos formal, CERIF incluye un mecanismo para construir perfiles XML (subconjuntos especializados) para escenarios específicos de intercambio de información. El perfil OpenAIRE de CERIF soporta la recolección e importación de metadatos desde los sistemas CRIS.

Cabells Journal Blacklist recoge 12.000 posibles revistas depredadoras

 

mountain-graphic-2-e1570028493514

 

 

Cabells Journal Blacklist

https://www.cabells.com/

Más sobre  

Cabells ha anunciado que ha revisado y añadido la publicación número 12.000 a su lista negra de revistas. Este es un hito significativo, ya que Cabells ha triplicado el número de posibles revistas engañosas y fraudulentas en su Journal Blacklist desde su lanzamiento en 2017.  Junto a ella, la empresa complementa esta lista con la lista de revistas blancas “Cabells Journal Whitelist”, una lista curada de más de 11.000 revistas académicas de 18 disciplinas que orienta a los investigadores e instituciones para obtener el máximo impacto de sus investigaciones.

 

Cabells proporciona análisis de calidad de revistas y datos inteligentes a las comunidades académicas y de investigación, permitiendo la toma de decisiones informadas sobre la calidad y legitimidad de las publicaciones académicas. La lista negra del Cabells Journal consta ahora de más de 12.000 informes de revistas individuales -basados en metodologías objetivas y transparentes- que identifican claramente las revistas y proporcionan un registro de cuándo y por qué se han incluido en la lista negra, lo que permite a los usuarios ver de primera mano los comportamientos engañosos y validar su toma de decisiones.

La lista negra del Cabells Journal es la única base de datos disponible para los estudiosos de revistas académicas engañosas y depredadoras. Elaborado por especialistas que analizan las revistas sospechosas en relación con 74 indicadores de comportamiento, la lista negra del Cabells Journal permite a la comunidad académica mantenerse al tanto de las crecientes amenazas, al tiempo que protege a los investigadores e instituciones de las operaciones de explotación. Esta semana Cabells anunció que tiene recogidas 12.000 revistas en su lista negra de revistas fraudulentas o depredadoras. Lo que supone un incremento de 2.000 revistas respecto al año anterior, y el triple de cuando se inicio la lista en 2017.

La lista negra se complementa con la Cabells Journal Whitelist, una lista curada de más de 11.000 revistas académicas de 18 disciplinas que orienta a los investigadores e instituciones para obtener el máximo impacto de sus investigaciones. La inclusión en la lista blanca es sólo por invitación. Las revistas potenciales son identificadas por el personal interno de las revistas a los que se le pide que complete una solicitud y se someta a una auditoría completa de sus políticas y procedimientos. Cada revista es investigada a fondo y revisada en base a un estricto conjunto de criterios para asegurar que sus operaciones, como mínimo, cumplan con los niveles estándar de la industria. Algunas de las principales áreas de investigación son:

  • Relevancia: Las revistas deben estar directamente relacionadas con un campo cubierto por la base de datos.
  • Patrocinio: Aunque no es obligatorio, se da preferencia a las revistas patrocinadas por asociaciones u organizaciones profesionales y organismos gubernamentales.
  • Calidad: Factores como la integridad, la objetividad, el mérito y la utilidad/importancia se examinan detenidamente.
  • Revisión por pares: La evidencia de un sistema riguroso de revisión por pares debe estar presente para ser considerada para su inclusión.
  • Tarifas: Cualquier cuota asociada con la publicación o revisión debe estar claramente indicada y fácilmente localizable en el sitio web de la revista.
  • Políticas: Deben existir políticas escritas claras y completas sobre temas como la ética, el archivo, el acceso abierto, la retractación y la publicidad.
  • Prácticas de publicación: Información de contacto completa de la revista, sitio web e instrucciones de autor claras y detalladas, y ISSN verificado.

 

Anualmente se realizan auditorías de todas las revistas incluidas en la lista blanca para actualizar la información de la base de datos y confirmar que las revistas siguen cumpliendo los criterios de selección. Una vez aceptada, la lista blanca utiliza medidas cuantitativas que incluyen recuentos de citas e impacto social con Altmetric.com para permitir la comparación entre revistas. No existe una medida mágica que pueda medir la legitimidad o el prestigio de una revista. Sin embargo, hay ciertas métricas que, cuando se toman en conjunto, ofrecen una imagen clara de lo que uno puede esperar en términos de calidad de la revista, audiencia y relevancia

El Director de Marketing Internacional y Desarrollo de Cabells, Simon Linacre, dijo: “Parece haber una presión cada vez mayor por parte de editores inescrupulosos, engañosos y depredadores, de engañar a los investigadores académicos para que publiquen artículos en sus revistas. Lo hacen enviando millones de correos electrónicos diarios que incluyen afirmaciones falsas sobre la revisión por pares y los indicadores de calidad de las revistas, a la vez que ofrecen una publicación rápida por unos pocos cientos de dólares.”

La lista negra del Cabells Journal permite a los investigadores validar sus elecciones de revistas y no dejarse tentar por las ofertas editoriales demasiado buenas para ser verdaderas que se les presentan. Ahora hay más de 12.000 razones para que los investigadores utilicen la Journal Blacklist ampliada y estén tranquilos con respecto a una de las decisiones más importantes que tomarán en sus carreras académicas.