Archivo de la etiqueta: Investigación

eLife requerirá que las presentaciones de artículos se publiquen previamente como preprints

In biology publishing shakeup, eLife will require submissions to be posted as preprints. Por Lila Guterman Science, 3 de diciembre de 2020 12:40 p.m.

Ver completo

Cuando los principales financiadores de investigación biomédica lanzaron la revista de acceso abierto eLife en 2012, esperaban que impulsara la publicación biomédica para aprovechar al máximo el poder de Internet para compartir resultados de manera libre e instantánea. En los años siguientes, el modelo de acceso abierto se ha popularizado. Y cada vez más biólogos han compartido el trabajo en servidores de preprints en línea como bioRxiv y medRxiv antes de someterse a la revisión por pares.

Pero esos cambios no son suficientes para Michael Eisen, biólogo de la Universidad de California, Berkeley, y editor jefe de la revista desde 2019. Esta semana, eLife anunciaron que sólo revisarán los manuscritos que se han presentado previamente como preprints. Y todas las revisiones por pares se harán públicas, incluidas las de los manuscritos que realiza la revista previas a la publicación final. Eisen ve los cambios como el siguiente paso lógico en la evolución de los preprints, dijo a Science Insider.

Semantic Scholar: una herramienta de búsqueda de investigación gratuita para la literatura científica impulsada por la IA

Ochsner Journal Content Available at Semantic Scholar | Ochsner Journal Blog

El proyecto utiliza una combinación de aprendizaje automático, procesamiento de lenguaje natural y visión artificial para añadir una capa de análisis semántico a los métodos tradicionales de análisis de citas, y para extraer figuras, entidades y lugares relevantes de los artículos.En comparación con Google Scholar y PubMed, Semantic Scholar está diseñado para destacar los artículos más importantes e influyentes, e identificar las conexiones entre ellos.

Semantic Scholar tiene por objetivo el acceso oportuno y abierto a la investigación científica relevante, el proyecto fue lanzado en 2015 como un proyecto innovador en el Instituto Allen para la IA, un instituto de investigación sin fines de lucro fundado por el filántropo Paul G. Allen para desarrollar IA que beneficie el bien común. La herramienta aplica la inteligencia artificial para extraer el significado de la literatura científica permitiendo a los estudiosos navegar en la investigación mucho más eficientemente que un motor de búsqueda tradicional. Escanea rápidamente la investigación con la extracción automática de resúmenes, tablas, figuras y citas. Otra de las tareas de Semantic Scholar es comprender el impacto de un trabajo con estadísticas que resalten el volumen y la intención de las citas del trabajo, destacando la influencia de la investigación.

Cuando buscamos entre los 180 millones de artículo de Semantic Scholar encontramso datos relativos al impacto de la investigación tales como citas, indice h, citas de alta influencia, coautores, alertas, cita, texto completo, editor, PDF, TLDR... ) y la posibilidad de filtrar la búsqueda por diferentes criterios como co-autor, con PDF, área de conocimiento o tipo de publicación.

Además de las herramientas de búsqueda y descubrimiento disponibles en semanticscholar.org, proporcionamos una API y un Open Research Corpus como servicios gratuitos para la comunidad investigadora. En la actualidad tiene más de180 millones de documentos

TLDR sistema de inteligencia artificial que resumen los contenidos de investigación de un artículo en una sola frase

Funcionamiento de TLDR Ver. https://www.semanticscholar.org/author/Julio-Alonso-Ar%C3%A9valo/1403118477

Los TLDR (Too Long; Didn’t Read) son resúmenes super-cortos del objetivo principal y los resultados de un artículo científico generados usando el conocimiento de fondo de los expertos y las últimas técnicas de procesamiento del lenguaje natural (PLN) . Esta nueva característica está disponible en versión beta para casi 10 millones de artículos y contando en el dominio de la informática en Semantic Scholar.

Mantenerse al día con la literatura científica es una parte importante del flujo de trabajo de cualquier investigador, y analizar una larga lista de artículos de diversas fuentes mediante la lectura de los resúmenes de los artículos requiere mucho tiempo. TLDR: Extreme Summarization of Scientific Documents, es una nueva forma de resumen extremo, para documentos científicos, utilizando un novedoso protocolo de anotación que produce resúmenes de alta calidad a la vez que reduce al mínimo la carga de anotación.

El motor de búsqueda de información científica Semantic Scholar ahora incluye un nuevo modelo de inteligencia artificial que ofrece un breve extracto sobre cada artículo científico para ayudar a los investigadores en su día a día.

Según la MIT, el sistema ofrece un resumen de una frase junto al famoso indicador TLDR (too long; didn’t read en inglés, demasiado largo; no leído) que aparece debajo de cada artículo de ciencias de la computación (por ahora) cuando los usuarios utilizan la función de búsqueda o van a la página de un autor, lo que le permite localizar rápidamente los documentos adecuados y dedicar el tiempo a leer lo que realmente importa, ya que TLDR ayuda a los usuarios a tomar decisiones rápidas e informadas sobre qué documentos son relevantes, y dónde invertir el tiempo en lecturas adicionales.

Ejemplo:

“Information overload is a top problem facing scientists. Semantic Scholar’s automatically generated TLDRs help researchers quickly decide which papers to add to their reading list.”Isabel Cachola, Johns Hopkins University PhD Student, Former Pre-Doctoral Young Investigator at AI2, and Author of TLDR: Extreme Summarization of Scientific Documents

Bibliografía:

  1. TLDR: Extreme Summarization of Scientific Documents | Semantic Scholar [Internet]. [cited 2020 Dec 3]. Available from: https://www.semanticscholar.org/paper/TLDR%3A-Extreme-Summarization-of-Scientific-Documents-Cachola-Lo/3502a542b2e98d9094e1880a30f652d4170b9534
  2. Una nueva IA resume “papers” de investigación en una sola frase | MIT Technology Review en español [Internet]. [cited 2020 Dec 3]. Available from: https://www.technologyreview.es/s/12886/una-nueva-ia-resume-papers-de-investigacion-en-una-sola-frase
  3. Cachola I, Lo K, Cohan A, Weld DS. TLDR: Extreme Summarization of Scientific Documents [Internet]. [cited 2020 Dec 3]. Available from: https://github.com/allenai/scitldr.

El proceso de investigación y cómo un CRIS puede apoyarlo.

The Research Process and how a CRIS can support it. euroCRIS

Ver original

Descargar imagen en grande

Mas sobre CRIS (Sistemas de Gestión de la Investigación)

Un sistema CRIS, acrónimo de Current Research Information System, es aquella herramienta que permite gestionar de manera global todos los procesos de relacionados con la investigación. El CRIS permite evaluar las oportunidades de financiación de la investigación, evitar la duplicidad de las actividades de investigación, analizar las tendencias, y enlazar con el texto completo o con publicaciones académicas electrónicas e identificar nuevos mercados para los productos de la investigación. Es la herramienta que facilita la realización del CV del investigador y genera informes de gestión, informes a los financiadores, bibliografía de investigación, etc. Paralelamente, las universidades han implementado Repositorios Institucionales para preservar, difundir y poner en valor los objetos digitales emanados de la producción científica institucional.

Existe una división tradicional entre la visión del mundo del investigador individual o del grupo de investigación (reconocimiento de pares) y la visión del mundo de la gestión de la organización. (gobierno y valor por el dinero). Los investigadores fomentan una independencia feroz y se muestran reacios a proporcionar información sobre su actividad con argumento de la libertad de investigación académica impulsada por la curiosidad, a pesar de las posibles ventajas de cooperar con la organización.

Un CERIF-CRIS en el seno de una organización puede superar este problema mediante las siguientes funciones:

  • Información de investigación para el apoyo a la decisión;
  • Metadatos (índice) a las publicaciones académicas (blancas y grises) en un repositorio y a los conjuntos de datos de investigación y software en un repositorio y, como tal, el recurso primario (registro) y principal de metadatos para los repositorios institucionales;
  • Vista de acceso a la información financiera, de recursos humanos y de gestión de proyectos de una organización (y a otros sistemas pertinentes de la organización);
  • Suministro de información del servicio de directorio para la autenticación, autorización, flujo de trabajo y trabajo cooperativo;
  • Generación de páginas web que presentan la organización de la intranet, la DMZ y la extranet, directamente o desde otros sistemas de la organización;
  • Interoperación con otros CERIF-CRIS (y sus sistemas asociados) para dar una visión global de la información de la investigación;
  • Siendo el nodo local y la fuente principal de la información de investigación de la institución en las Infraestructuras de Información de Investigación nacionales e internacionales.

El punto clave es que el investigador, provisto de un CERIF-CRIS, descubre que hay un gran beneficio (CV automatizado, bibliografía, lista de participación en proyectos, generación de páginas web institucionales, finalización parcial de propuestas de investigación, etc.) a cambio de un esfuerzo de entrada relativamente pequeño, ya que la mayoría de las entradas están automatizadas o sólo se requieren una vez y se utilizan muchas veces. De igual modo, el director de la investigación obtiene una visión general de la actividad de investigación dentro y fuera de su institución, lo que le permite tomar mejores decisiones estratégicas.

El CERIF proporciona la interoperación del CRIS y los sistemas asociados con una sintaxis formal y una semántica declarada para que sea fiable y escalable. La situación final ideal es un apoyo completo e integrado de extremo a extremo de las TIC para la cadena de procesos de I+D -programa de trabajo, propuesta, proyecto, resultados, explotación, creación de riquezas- a través de CRISs distribuidos de forma heterogénea.

Para lograr esto necesitamos desarrollar (más) tecnologías de metadatos (interoperación), GRIDs y computación ambiental (facilidad de uso) y flujo de trabajo (reducir la barrera del umbral), permitiendo así que CRIS sea el foco central (proporcionando el contexto de I+D) para los resultados de la investigación, tales como publicaciones, patentes, productos incluyendo conjuntos de datos de I+D y software.

Así pues, el CRIS ocupa una posición central en el espacio de información de la investigación, véase la imagen de arriba para obtener una impresión gráfica de la posición de un CRIS en una institución (haga clic en la imagen para verla más grande)…

Exploración de las identidades de WorldCat como fuente de información Altmetric: Un experimento de análisis del catálogo de la biblioteca en el campo de la Cienciometría

New Interface for WorldCat: Dec 18 | Indiana University Libraries

Torres-Salinas, D., Arroyo-Machado, W., & Thelwall, M. (2020). Exploring WorldCat Identities as an altmetric information source: A library catalog analysis experiment in the field of Scientometrics. (Preprint). ArXiv, https://doi.org/10.1007/s11192-020-03814-w

Evaluar el impacto de los libros académicos es un difícil problema de evaluación de la investigación. El análisis del catálogo de la biblioteca facilita el estudio cuantitativo, a diferentes niveles, del impacto y la difusión de los libros académicos sobre la base de los datos acerca de su disponibilidad en las bibliotecas. El catálogo mundial de WorldCat recopila datos sobre las existencias de las bibliotecas y ofrece una serie de herramientas, entre las que se encuentra la novedosa WorldCat Identities. Se basa en los perfiles de los autores y proporciona indicadores relativos a la disponibilidad de sus libros en los catálogos de las bibliotecas. Se investiga esta nueva herramienta para identificar sus fortalezas y debilidades en base a una muestra de autores de Bibliometría y Cienciometría. Se revisan los problemas que esto conlleva y comparamos los indicadores del Análisis de catálogos de bibliotecas con las citas de Google Scholar y Web of Science. Los resultados muestran que WorldCat Identities puede ser una herramienta útil para la evaluación del impacto de los libros, pero el valor de sus datos se ve socavado por la provisión de colecciones masivas de libros electrónicos a las bibliotecas académicas.

Informe técnico sobre los instrumentos para la elaboración de planes de gestión de datos de investigación

Pedro Príncipe, Paula Moura, André Vieira, Filipa Pereira. Relatório Técnico sobre Ferramentas para a Elaboração de Planos de Gestão de Dados. Lisboa: Fundação para a Ciência e Tecnologia (FCT), 2020

Texto completo

Más sobre Gestión de datos de investigación

En el marco del plan de actividades en el ámbito de la gestión de datos de investigación, la FFundação para a Ciência e Tecnologia (FCT), a través de la Unidade de Computação Científica Nacional (FCCN), tiene la intención de poner a disposición de la comunidad científica y de enseñanza superior un sistema de planes de gestión de datos de investigación. Su objetivo es asegurar que los investigadores preparen y actualicen los planes de gestión de datos (PGD) relacionados con sus proyectos, de conformidad con la “Política sobre la gestión y el intercambio de datos y otros productos resultantes de las investigaciones financiadas por el Tratado de Libre Comercio de América del Norte” (1). En el contexto actual, los Principios rectores para la aplicación de una política nacional de ciencia abierta (2) definen el principio del “acceso abierto a los datos científicos resultantes de la investigación financiada con fondos públicos”, así como la “garantía de preservación de las publicaciones y los datos científicos a fin de permitir su reutilización y el acceso continuo”. Además, en las Recomendaciones de la Comisión Europea de 25 de abril de 2018 sobre el acceso a la información científica y su conservación (3) se establece que los Estados miembros deben definir y aplicar políticas claras para la gestión de los datos resultantes de las investigaciones financiadas con fondos públicos. También consideran importante que “la planificación de la gestión de datos se convierta en una práctica científica habitual en una etapa temprana del proceso de investigación cuando se generen o reúnan datos, en particular exigiendo planes de gestión de datos”.

El presente informe técnico tiene por objeto evaluar los instrumentos de gestión de datos de investigación de que se dispone actualmente a nivel mundial a fin de seleccionar el que mejor se ajuste al servicio nacional que se prestará. Esta evaluación integrará varios aspectos que se consideran pertinentes, en particular: – La apertura del software, es decir, si es de código abierto o propietario; – El alcance de la comunidad de usuarios; – La disponibilidad de modelos para los financiadores; – Los casos de uso; – La disponibilidad de apoyo y soporte técnico, así como de capacitación; – Los respectivos planes de costos. Esta información permitirá preparar un resumen comparativo de las diversas funcionalidades disponibles, facilitando el análisis del cumplimiento de los requisitos considerados relevantes para el servicio que el FCT prestará a la comunidad. También se abordarán los estudios e iniciativas nacionales sobre las DGP. Por último, también consideramos importante evaluar los servicios de los PGD que ya están implementados en algunos países de referencia en el campo de la gestión de datos de investigación, como: España, Bélgica, Francia, Noruega, Dinamarca y Alemania.

Guía de buenas prácticas en la publicación científica

Guía de buenas prácticas en la publicación científica | Dilemata

Delgado López-Cózar, Emilio. Guía de buenas prácticas en la publicación científica. Dilemata, Revista Internacional de Éticas Aplicadas, nº 33, 295-310

Texto completo

El estudio sobre “Hábitos, prácticas, percepciones y opiniones sobre la publicación y la evaluación científica en Filosofía y Filosofía Moral en España” ha evidenciado que existe un cierto desconocimiento sobre los estándares de publicación científica y algunas dificultades a la hora de entender determinados conceptos en torno a lo que son bue-nas prácticas en la publicación. A lo largo de la confección del informe se han recibido algunas consultas al respecto que avalan esta percepción. Por ello considero que puede resultar de interés añadir una breve guía de buenos usos en la publicación científica incluyendo una serie de definiciones y pautas que orienten a la comunidad científica de Filosofía en su conjunto en lo que son actuaciones éticas en la publicación y comunicación de los resultados de investigación. El objetivo es tratar de establecer unas bases que quizás resulten de utilidad para los investigadores de las áreas de Ética y Filosofía en sus diferentes facetas, como autores, revisores y editores. En primer lugar, debemos referirnos a aquellas malas prácticas en la publicación científica que han emergido en nuestro estudio como más prevalentes en la investigación filosófica española. Se procura clarificar conceptos, contextualizarlos y definir buenos usos y medidas que intenten sino erradicarlos al menos frenarlos. En segundo lugar, se señalarán cuáles deben ser las responsabilidades éticas en la publicación de todos los actores que participan en el ciclo comunicativo -autores, editores y revisores- no olvidando que cualquier miembro de la comunidad profesional desempeña estos roles en distintos momentos de su vida cotidiana. Lo más habitual es que se simultaneen.

El papel transformador de los preprints en la aceleración de la comunicación científica

Alonso-Arévalo, J., Lopes, C. El papel transformador de los preprints en la aceleración de la comunicación científica. En: Seminario Hispano-Brasileño de Investigación en Información, Documentación y Sociedad 2020 – MESA III. Gestión de la Información, Comunicación; Madrid: Universidad Complutense de Madrid, 2020

Texto completo

Escuchar video conferencia

Los preprints son versiones de trabajos de investigación disponibles antes de su publicación formal. El término lleva utilizándose dese hace décadas. Se trata de informes preliminares de investigación, que no han sido objeto de escrutinio editorial y de revisión por pares. El intercambio de preprints entre los investigadores en el área científica fue una política común anterior a la web, sobre todo en el ámbito científico-técnico. En ciertas disciplinas altamente dinámicas, como es la física, donde ya preexistía un sistema de comunicación científica, en el que los preprints eran un elemento fundamental, ya se ha operado el cambio, siendo éste el principal medio para la comunicación de los resultados de investigación. El valor fundamental de los preprints es que permiten a los científicos acceder a los hallazgos de vanguardia más rápidamente que cuando los autores envían sus hallazgos directamente a las revistas tradicionales, que a menudo tardan meses en completar las revisiones. La principal crítica al modelo es que frente a la ventaja que implica la velocidad de publicación, es que generan dudas en cuanto a su fiabilidad y credibilidad. En el documento se analiza la capacidad de citación y el valor de los preprints como elementos transformadores y aceleradores de la comunicación científica.

Dimensions ahora incluye más de 8 millones de conjuntos de datos

Dimensions now includes more than 8 million datasets
NOVEMBER 24, 2020

Ver noticia

A principios de este año, se agregaron conjuntos de datos a todas las versiones de Dimensions como un nuevo tipo de contenido. Dado que hoy en día muchos financiadores a nivel mundial exigen la publicación de resultados no tradicionales, como conjuntos de datos, este fue un gran paso adelante para obtener una imagen completa de la investigación, todo vinculado dentro de una plataforma.

El primer lote que se lanzó en enero de 2020 contenía aproximadamente 1,5 millones de conjuntos de datos, en estos dias se amplió la cantidad de conjuntos de datos en Dimensions a 8,1 millones . De estos, 2 millones están vinculados a publicaciones identificadas.

El primer lote incluía conjuntos de datos de Figshare, datos de Dryad, Zenodoo, Pangea y Mendeley. Ahora se han incluido conjuntos de datos de aproximadamente 900 repositorios de DataCite .

DataCite es una organización líder mundial sin fines de lucro que proporciona identificadores persistentes (DOI) para datos de investigación y otros resultados de investigación. Sus miembros incluyen centros de datos, bibliotecas, agencias gubernamentales y universidades de investigación de más de 42 países.

Tener un gran volumen de conjuntos de datos incluidos en Dimensions ofrece una gran cantidad de posibilidades de descubrimiento, creación de perfiles y análisis.

Los gestores y editores de investigación podrán utilizar los conjuntos de datos en análisis de tendencias y de impacto, y los usuarios de Dimensions que trabajen en I + D corporativo podrán enriquecer sus análisis de campo. 

Informe sobre la integridad de la investigación


Federal Scientific Integrity: A Primer (New Congressional Research Service Report), 2020

Texto completo

Los resultados de la investigación y el desarrollo (I + D) ayudan a informar las decisiones que toman los formuladores de políticas y el público sobre una amplia gama de temas, incluida la salud y seguridad humanas, el medio ambiente, la agricultura, la energía y el transporte. Por ejemplo, la información científica es esencial para la revisión y aprobación de medicamentos y dispositivos médicos y el establecimiento de estándares de calidad del aire. 

Existe un amplio acuerdo entre los responsables de la formulación de políticas y la comunidad científica y de ingeniería acerca de garantizar la integridad de la conducta, la comunicación y la gestión de la I + D, y su uso en el desarrollo de políticas y la toma de decisiones. Sin embargo, recientemente, algunos legisladores y otros han alegado que las administraciones presidenciales de ambos partidos han violado los principios de integridad científica.