Archivo de la etiqueta: Investigación

¿Cómo eligen los autores la revista a la que enviar un artículo?

Maggio, Lauren A., Natascha Chtena, Juan Pablo Alperin, Laura Moorhead, y John M. Willinsky. «“The Best Home for This Paper”: A Qualitative Study of How Authors Select Where to Submit Manuscripts». bioRxiv, 17 de mayo de 2024. https://doi.org/10.1101/2024.05.14.594165.

Para los investigadores, seleccionar una revista objetivo para enviar un manuscrito es una decisión crítica con implicaciones para la carrera. En educación médica, una investigación realizada en 2016 encontró que los autores estaban influenciados por múltiples factores como el prestigio de una revista y su misión. Sin embargo, desde esta investigación, el panorama de publicación ha cambiado para incluir una variedad más amplia de revistas, una mayor amenaza de revistas predatorias y nuevos modelos de publicación. Este estudio actualiza y expande cómo los autores de educación médica deciden a qué revista enviar, con el objetivo de describir los factores motivacionales y las características de las revistas que guían la toma de decisiones de los autores.

Los autores consideraron cinco grupos de enfoque cualitativos en los que participaron veintidós autores y editores de educación médica. Durante los grupos de enfoque, los participantes participaron en una discusión sobre cómo seleccionan una revista para enviar sus manuscritos. Se transcribió el audio de todos los grupos de enfoque. Las transcripciones se analizaron utilizando análisis temático de libro de códigos.

Los participantes consideraron múltiples factores al seleccionar una revista objetivo. Los factores incluyeron el impacto de una revista, el alcance de una revista, la calidad de la revista y factores técnicos (por ejemplo, límites de palabras). Los participantes también describieron cómo los factores sociales influían en su proceso y que el acceso abierto juega un papel que podría tanto alentar como disuadir la presentación.

Los hallazgos describen los factores motivacionales y las señales influyentes que guían a los autores en su toma de decisiones sobre la selección de revistas. Estos hallazgos confirman, extienden y actualizan los factores de selección de revistas reportados en educación médica y otras disciplinas. Notablemente, estos hallazgos enfatizan el papel de los factores sociales, las relaciones y las experiencias personales, que estaban ausentes en trabajos anteriores. Además, observamos una mayor consideración del OA y un alejamiento del énfasis en el prestigio de la revista.

Indicadores para una evaluación del impacto de los datos abiertos

Bas, P., Page, M., Indicators for an open data impact assessment, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2830/323236

Aunque el impacto de los datos abiertos ha sido estudiado anteriormente, generalmente de manera ad hoc, aún es necesario explorar métodos estructurados e indicadores para medir su impacto y la posibilidad de basar estos indicadores en conjuntos de datos existentes. Este informe representa el segundo paso en la definición de una metodología para una evaluación a nivel europeo del impacto de los datos abiertos. La serie de estudios tiene como objetivo crear una herramienta interactiva de monitoreo para la evaluación del impacto de los datos abiertos. Este segundo estudio busca proporcionar una base teórica para desarrollar una metodología que analice el impacto de los recursos de datos públicos, enfocándose en los diferentes impactos a considerar y los indicadores que podrían cuantificarlos. Este informe utiliza los resultados y conclusiones presentados en el primer estudio sobre «repensar el impacto de los datos abiertos» como base. Los resultados de este estudio podrían incorporarse en un tercer estudio, donde se podría desarrollar y pilotar una metodología preliminar para medir el impacto de los datos abiertos.

Un informe de la Royal Society advierte que la dependencia excesiva de herramientas de IA «opacas» en la investigación podría afectar la fiabilidad de los hallazgos científicos

«Science in the age of AI : How artificial intelligence is changing the nature and method of scientific research». Royal Society, accedido 30 de mayo de 2024. https://royalsociety.org/news-resources/projects/science-in-the-age-of-ai/.

Informe

El informe «The Science in the Age of AI» de la academia nacional de ciencias del Reino Unido analiza las oportunidades y desafíos del aprendizaje automático y los modelos de lenguaje grande como herramientas transformadoras para la investigación del siglo XXI.

Desde la codificación y el análisis estadístico hasta la generación de nuevas perspectivas a partir de grandes conjuntos de datos, las herramientas de IA ya están transformando campos como el descubrimiento de fármacos y la modelización climática.

Sin embargo, el informe advierte que la complejidad y la naturaleza de «caja negra» de los modelos sofisticados de aprendizaje automático significa que los investigadores que los utilizan no siempre pueden explicar sus resultados.

Esto no impide que la IA genere conocimientos útiles. No obstante, un creciente número de estudios irreproducibles basados en IA y aprendizaje automático plantea dudas sobre la solidez de sus conclusiones.

En última instancia, el informe advierte que las tecnologías de IA poco fiables o no fidedignas suponen riesgos para la ciencia y la confianza de la sociedad en sus hallazgos.

Para mitigar estos desafíos y maximizar los beneficios que puede aportar la IA, el informe recomienda:

  • Establecer marcos de trabajo abiertos en ciencia, medio ambiente y ética para la investigación basada en IA, a fin de garantizar que los hallazgos sean precisos, reproducibles y apoyen el bien público. Esto podría incluir acuerdos para que los datos con los que se entrenan los modelos de IA estén disponibles para los investigadores, o ejercicios de «equipos rojos» para probar los límites de su uso.
  • Invertir en infraestructuras regionales y multisectoriales de IA al estilo del CERN, para garantizar que todas las disciplinas científicas puedan acceder a la potencia de cálculo y a los recursos de datos necesarios para llevar a cabo una investigación rigurosa y mantener la competitividad de los investigadores no pertenecientes a la industria.
  • Promover la alfabetización en IA entre los investigadores y la colaboración con los desarrolladores para garantizar su accesibilidad y facilidad de uso.

El informe revisado por pares fue dirigido por un grupo de trabajo de expertos formado por académicos y representantes de la industria, e incluyó revisiones de pruebas, entrevistas y talleres sobre las aplicaciones emergentes y las tendencias en materia de IA, los riesgos de seguridad y el panorama de las patentes.

NISO Publica el borrador de la revisión de la Práctica Recomendada para Versiones de Artículos de Revista

Journal Article Version (JAV) Recommended Practice. The National Information Standards Organization (NISO)

PDF

The National Information Standards Organization (NISO) anunció hoy que su borrador de la revisión de la Journal Article Version (JAV) Recommended Practice está abierto para comentarios públicos hasta el 7 de julio de 2024 en la página web del proyecto.

Publicado por primera vez en 2008, Journal Article Version (JAV) Recommended Practice se desarrolló para describir las diferentes versiones del contenido académico en línea. Desde entonces, las prácticas editoriales han seguido evolucionando y, con cambios como el rápido crecimiento de las publicaciones preprint, el concepto de una única versión oficial se ha vuelto menos relevante. Preguntas sobre las citas de diferentes versiones y el etiquetado de versiones, por ejemplo, han destacado la necesidad de estandarizar términos y recomendar cómo gestionar, rastrear e indexar múltiples versiones. El grupo de trabajo de NISO se formó para abordar estos desafíos y desarrollar una revisión de la Práctica Recomendada JAV, incluyendo un apéndice con múltiples ejemplos que ilustran una variedad de casos de uso para aquellos que buscan orientación.

«Nos complace presentar la Práctica Recomendada revisada para comentarios públicos,» dijo Clay Burgett, Copresidente del Grupo de Trabajo (Director Asistente de Tecnología de Aplicaciones, Publicaciones ACS). «Esperamos que sea útil para una variedad de partes interesadas en las comunicaciones académicas y esperamos incorporar comentarios de la comunidad en general.» Los Copresidentes del grupo de trabajo, Patrick Hargitt (Director Senior de Gestión de Productos, Atypon) y Michael Nason (Bibliotecario de Publicaciones y Becas Abiertas, Universidad de New Brunswick), destacaron los esfuerzos determinados de los miembros del grupo de trabajo para abordar de manera colaborativa los problemas y preguntas de un panorama editorial en constante evolución y la expectativa del grupo de someter su producto a revisión pública.

«NISO aprecia el servicio del Grupo de Trabajo de Revisión de JAV,» dijo Nettie Lagace, Directora Ejecutiva Asistente de NISO. «Muchas cosas han cambiado desde 2008, y estas revisiones esenciales ayudarán a asegurar que la Práctica Recomendada JAV se mantenga actualizada y satisfaga las necesidades de los creadores y consumidores de artículos académicos. Esperamos recibir más aportaciones y opiniones de la comunidad, que fortalecerán la Práctica Recomendada final.»

Directrices para académicos buscan reducir los riesgos éticos en el uso de IA generativa

Drew, Liam. «Guidelines for Academics Aim to Lessen Ethical Pitfalls in Generative-AI Use». Nature, 22 de mayo de 2024. https://doi.org/10.1038/d41586-024-01543-1.

Investigadores del Reino Unido están desarrollando un nuevo conjunto de herramientas para ayudar a los académicos a utilizar la inteligencia artificial generativa (IA generativa) de manera más ética.

Wendy Moncur, investigadora en ciberseguridad de la Universidad de Strathclyde en Glasgow, lidera este proyecto. La falta de orientación en el uso de herramientas de IA generativa ha llevado a Moncur y su equipo a considerar la necesidad de un conjunto de directrices que aborden las fortalezas y amenazas de estas tecnologías.

El proyecto se centra en los problemas que pueden surgir cuando se utilizan herramientas de IA generativa, como ChatGPT de OpenAI y Gemini de Google, para analizar y procesar información personal de voluntarios en estudios. Moncur y su equipo están utilizando herramientas de IA generativa para crear materiales educativos basados en las historias de los participantes, pero se preocupan por el riesgo de que la información anonimizada pueda ser reidentificada y distorsionada por la IA.

Las inquietudes de Moncur la llevaron a colaborar con científicos informáticos y un académico en derecho para desarrollar soluciones. Financiado por el Centro Nacional de Investigación del Reino Unido sobre Privacidad, Reducción de Daños e Influencia Adversarial en Línea, el proyecto de diez meses busca crear directrices para investigadores y comités de ética universitarios, con fecha de finalización en agosto.

El proyecto tiene tres objetivos principales: abordar la falta de experiencia en la identificación de riesgos de privacidad, cumplir con los requisitos de gestión de datos en la investigación del Reino Unido y mitigar los riesgos legales para las instituciones que utilizan IA generativa para procesar datos de participantes.

El equipo está realizando una revisión de la literatura y planea entrevistar a académicos en comités de ética para desarrollar una herramienta que analice fortalezas, debilidades, oportunidades y amenazas, y que esté disponible en línea de forma gratuita.

Robert Davison, científico de sistemas de información en la Universidad de la Ciudad de Hong Kong, apoya estos esfuerzos y advierte contra la normalización del uso de IA generativa sin la debida atención ética. Moncur y sus colegas apuntan a los comités de ética universitarios como el primer paso para establecer normas éticas robustas en el uso de esta tecnología.

Lanzamiento de la Plataforma de IA de Clarivate

Ben-Porat, Guy. «Introducing the Clarivate Academic AI Platform». Clarivate (blog), 21 de mayo de 2024. https://clarivate.com/blog/introducing-the-clarivate-academic-ai-platform/.

La Plataforma Académica de IA de Clarivate marca un hito significativo en su esfuerzo por empoderar a la comunidad académica con herramientas y tecnologías de IA innovadoras y servirá como una columna vertebral tecnológica, permitiendo la implementación acelerada y consistente de capacidades de IA en todo su portafolio de soluciones Académicas y Gubernamentales.

Esta iniciativa ha sido el resultado de varios proyectos de investigación en los que la empresa se ha involucrado durante el último año, trabajando estrechamente entre sus equipos de ciencia de datos, ingeniería, contenido y experiencia de usuario, y la comunidad de clientes para aprender de primera mano sobre el potencial y las limitaciones de la IA generativa (GenIA). Además, la experiencia acumulada durante años de uso de IA y aprendizaje automático en sus productos ha sido fundamental para dar forma a este avance.

Algunas de sus características son:

  • Asistente de Investigación de Web of Science: Ayudando a investigadores de todos los niveles a explorar el índice de citas más confiable del mundo, aprovechando más de un siglo de investigación, con descubrimiento en lenguaje natural, tareas guiadas y visualizaciones contextuales.
  • Asistente de Investigación de ProQuest: Permitiendo a los usuarios navegar por millones de trabajos académicos de texto completo dentro de ProQuest y obtener fácilmente nuevos conocimientos para la investigación y el aprendizaje.
  • Entrenador Académico Alethea: Fomentando las habilidades de aprendizaje y pensamiento crítico de los estudiantes al guiarlos hacia el núcleo de sus lecturas de curso, ayudándolos a destilar los puntos clave y prepararse para la discusión en clase.
  • Asistente de Investigación de Primo: Transformando el descubrimiento en bibliotecas, proporcionando a los usuarios una nueva forma de encontrar y explorar materiales a través de la búsqueda en lenguaje natural, referencias de artículos y consultas recomendadas para apoyar la investigación.

En el futuro, la plataforma ampliará sus capacidades para admitir la introducción de capacidades de IA en productos adicionales, incluidos Alma, Ebook Central, EndNote y Leganto, así como presentar eficiencias de backend como la creación y enriquecimiento de metadatos.

Las bibliotecas universitarias se preparan para un mundo de investigación y erudición influenciado por la Inteligencia Artificial

Ruttenberg, Judy. «Research Libraries Prepare for a World of AI-Influenced Research and Scholarship». Association of Research Libraries (blog), 23 de mayo de 2024. https://www.arl.org/blog/research-libraries-prepare-for-a-world-of-ai-influenced-research-and-scholarship/.

Las bibliotecas de investigación, responsables de preservar el pasado, el presente y el futuro del conocimiento, tienen una larga experiencia con tecnologías disruptivas. Ahora están utilizando el crecimiento de la inteligencia artificial (IA), especialmente la IA generativa, para mejorar sus servicios, crear oportunidades educativas y evaluar su impacto en las operaciones y colecciones. La Asociación de Bibliotecas de Investigación (ARL) se asegura de que sus miembros y las comunidades a las que sirven prosperen en medio de esta disrupción tecnológica. Esto implica equilibrar las oportunidades innovadoras de la IA generativa con las posibles amenazas al acceso equitativo, la libertad intelectual y la integridad de la información.

La ARL ha sido históricamente fuerte en la defensa de un régimen de derechos de autor equilibrado. A través de la Library Copyright Alliance (LCA), la Asociación emitió en 2023 un conjunto de principios para los derechos de autor y la inteligencia artificial. Estos principios fueron presentados a la Oficina de Derechos de Autor de EE. UU. y a la Oficina de Política de Ciencia y Tecnología de la Casa Blanca. Los principios destacan la diferencia crucial entre lo que un modelo de IA aprende y lo que produce en relación con las obras protegidas por derechos de autor. En resumen, para que la IA generativa pueda innovar, es necesario proteger el uso justo en el entrenamiento de modelos de IA, mientras que la ley actual puede abordar las posibles infracciones de derechos de autor en las producciones de IA.

Como líder en la creación de normas para bibliotecas de investigación, la ARL también ha formulado principios generales sobre la IA generativa. Estos principios buscan influir en las políticas y abogar por el desarrollo responsable de tecnologías de IA, promoviendo prácticas éticas y transparentes, y construyendo confianza entre todas las partes involucradas, tanto dentro de las bibliotecas como en el entorno de investigación en general.

Además, la ARL y la Coalición para la Información en Red (CNI) han publicado un conjunto de escenarios que anticipan el impacto del aprendizaje automático y la IA generativa en el ecosistema del conocimiento y la investigación para el año 2035. Estos escenarios no pretenden predecir el futuro, sino ayudar a imaginarlo y explorar las incertidumbres que el sector enfrentará. En una reciente reunión en Boston, la comunidad de la ARL utilizó estos escenarios para identificar y priorizar oportunidades.

Invertir en bibliotecas siempre ha beneficiado a las comunidades durante las disrupciones tecnológicas. La ARL y sus bibliotecas miembro colaboran con socios del sector de investigación y aprendizaje para preservar el patrimonio cultural, apoyar nuevas formas de investigación y publicación, y promover el éxito estudiantil. La Asociación invita a colaborar en el avance de sus principios de IA y en el uso de estos escenarios para asegurar un entorno informativo que promueva el progreso del conocimiento.

Una cuarta parte de los ensayos clínicos podrían ser problemáticos o incluso totalmente inventados

Van Noorden, Richard. «Medicine Is Plagued by Untrustworthy Clinical Trials. How Many Studies Are Faked or Flawed?» Nature 619, n.o 7970 (18 de julio de 2023): 454-58. https://doi.org/10.1038/d41586-023-02299-w.

Las investigaciones sugieren que, en algunos campos, al menos una cuarta parte de los ensayos clínicos podrían ser problemáticos o incluso totalmente inventados, advierten algunos investigadores. Instan a un mayor escrutinio.

¿Cuántos estudios de ensayos clínicos publicados en revistas médicas son falsos o contienen errores fatales? En octubre de 2020, John Carlisle publicó una sorprendente estimación. El anestesista John Carlisle, conocido por detectar datos dudosos en ensayos médicos, revisó más de 500 estudios durante tres años y encontró que el 26% tenía problemas tan graves que no se podían confiar, lo que él llamó «ensayos zombis». Estos ensayos, que se asemejan a la investigación real pero son huecos, pueden pasar desapercibidos sin acceso a los datos individuales de los participantes.

Por ello, se sugiere que los editores de revistas revisen los datos de los participantes antes de publicar ensayos controlados aleatorios. La preocupación por la integridad de la investigación también se extiende a otras áreas médicas, como la salud de la mujer, la anestesiología y la COVID-19, donde se han encontrado numerosos ensayos sospechosos.

Los problemas con los ensayos falsificados o poco confiables plantean serias amenazas, ya que pueden influir en las decisiones médicas y distorsionar el conocimiento científico. Aunque se están realizando más estudios para evaluar la magnitud del problema, la detección y corrección de ensayos problemáticos sigue siendo un desafío importante para la comunidad científica.

Wiley cerró 19 revistas científicas a raíz de problemas con las llamadas «fábricas de artículos» con inteligencia artificial

Claburn, Thomas. «Wiley Shuts 19 Scholarly Journals amid AI Paper Mill Problem». Accedido 21 de mayo de 2024. https://www.theregister.com/2024/05/16/wiley_journals_ai/.

Wiley cerró 19 revistas científicas a raíz de problemas con «fábricas de artículos» con inteligencia artificial. Estas revistas pertenecían a su subsidiaria Hindawi, centro de un escándalo de publicación académica.

En diciembre de 2023 Wiley anunció que dejaría de utilizar la marca Hindawi, adquirida en 2021, tras su decisión en mayo de 2023 de cerrar cuatro de sus revistas «para mitigar la manipulación sistemática del proceso de publicación» Se descubrió que las revistas de Hindawi estaban publicando artículos provenientes de «fábricas de artículos» (Papel Mills), organizaciones que intentan manipular el proceso de publicación académica con fines financieros. En respuesta a esto, Wiley ha retiró más de 11.300 artículos de su cartera de Hindawi. La preocupación por la integridad de la investigación académica no se limita a las publicaciones de Wiley, ya que estudios sugieren que hasta una cuarta parte de los ensayos clínicos pueden ser problemáticos o completamente fabricados.

Según un preprint publicado en febrero, el volumen de artículos enviados a ArXiv aumentó considerablemente en las tres categorías principales entre 2019 y 2023, un período que coincide aproximadamente con la puesta a disposición del público de herramientas como ChatGPT. Los artículos de ciencias de la computación aumentaron un 200 por ciento durante estos cuatro años, seguidos por los artículos de física (45 por ciento) y matemáticas (22 por ciento).

Como se describe en un libro blanco de Wiley publicado el pasado diciembre, «Tackling publication manipulation at scale: Hindawi’s journey and lessons for academic publishing», las fábricas de artículos recurren a diversas prácticas contrarias a la ética, como el uso de inteligencia artificial en la fabricación de manuscritos y la manipulación de imágenes, así como la manipulación del proceso de revisión por pares.

La creciente disponibilidad y sofisticación de la inteligencia artificial generativa está facilitando estas prácticas. Wiley ha implementado una nueva tecnología de detección para identificar artículos con posibles usos indebidos de la inteligencia artificial generativa antes de su publicación. «El sector reconoce que las editoriales utilizan la IA para generar contenidos fraudulentos», explica el portavoz de Wiley. «Recientemente hemos introducido una nueva tecnología de cribado que ayuda a identificar artículos con un potencial mal uso de la IA generativa antes del punto de publicación».

Las editoriales académicas, sin embargo, parecen apoyar los beneficios de la ayuda de la IA a la redacción sin sus inconvenientes. Springer Nature, por ejemplo, lanzó el pasado mes de octubre «Curie», un asistente de escritura basado en IA para ayudar a los científicos cuya lengua materna no es el inglés. De ahí las peticiones de mejores herramientas para detectar los resultados generativos de la IA, una petición a la que han respondido los recientes esfuerzos por mejorar la marca de agua de los contenidos de IA, que según algunos investigadores no funcionará.

Aunque Wiley caracterizó el cierre de las 19 revistas como parte de su plan anunciado previamente para integrar las carteras de Hindawi y Wiley, y distinto del problema de las fábricas de artículos, este incidente destaca los desafíos en la integridad de la investigación académica frente a la proliferación de prácticas fraudulentas facilitadas por la inteligencia artificial.

Mientras tanto, el informe de ganancias del tercer trimestre fiscal de 2024 de Wiley, el editor indicó que se anticipa que los ingresos de su división de aprendizaje se sitúen en el extremo superior de las proyecciones, debido a «acuerdos de derechos de contenido del cuarto trimestre para el entrenamiento de modelos de IA».

¿Qué tienen en cuenta los investigadores a la hora de elegir una revista a la que enviar un artículo para su publicación?

Maggio, Lauren A., Natascha Chtena, Juan Pablo Alperin, Laura L. Moorhead, y John M. Willinsky. «“The Best Home for This Paper”: A Qualitative Study of How Authors Select Where to Submit Manuscripts». bioRxiv, 17 de mayo de 2024. https://doi.org/10.1101/2024.05.14.594165.

Para los investigadores, seleccionar una revista objetivo para enviar un manuscrito es una decisión crítica con implicaciones en su carrera. En el contexto de la investigación médica, una investigación realizada en 2016 encontró que los autores eran influenciados por múltiples factores como el prestigio de una revista y su misión. Sin embargo, desde que se realizó esta investigación, el panorama editorial ha cambiado para incluir una variedad más amplia de revistas, una amenaza aumentada de revistas depredadoras y nuevos modelos de publicación. Este estudio actualiza y amplía cómo los autores de educación médica deciden a qué revista enviar con el objetivo de describir los factores motivacionales y las características de las revistas que guían la toma de decisiones de los autores.

Métodos: Los autores llevaron a cabo cinco grupos focales cualitativos en los que participaron veintidós autores y editores de educación médica. Durante los grupos focales, los participantes participaron en una discusión sobre cómo seleccionan una revista para enviar sus manuscritos. Se transcribió el audio de todos los grupos focales. Las transcripciones fueron analizadas utilizando análisis temático con un código de libro.

Resultados: Los participantes consideraron múltiples factores al seleccionar una revista objetivo. Los factores incluyeron el impacto de una revista, el alcance de una revista, la calidad de la revista y factores técnicos (por ejemplo, límites de palabras). Los participantes también describieron cómo los factores sociales influenciaron su proceso y que el acceso abierto juega un papel que podría tanto fomentar como disuadir la presentación.

Discusión: Los hallazgos describen los factores motivacionales y las señales influyentes que guían a los autores en su toma de decisiones sobre la selección de revistas. Estos hallazgos confirman, amplían y actualizan los factores de selección de revistas reportados en educación médica y otras disciplinas. Especialmente, estos hallazgos enfatizan el papel de los factores sociales, las relaciones y las experiencias personales, que estaban ausentes en trabajos previos. Además, observamos una mayor consideración del acceso abierto y un alejamiento del énfasis en el prestigio de la revista.