Archivo de la etiqueta: Revistas científicas

Políticas sobre chatbots de inteligencia artificial entre editoriales científicas: una auditoría transversal

Bhavsar, Daivat, Laura Duffy, Hamin Jo, Cynthia Lokker, R. Brian Haynes, Alfonso Iorio, Ana Marusic, y Jeremy Y. Ng. 2024. «Policies on Artificial Intelligence Chatbots Among Academic Publishers: A Cross-Sectional Audit». medRxiv. https://doi.org/10.1101/2024.06.19.24309148.


El estudio auditó las políticas de 163 editoriales académicas en relación con el uso de chatbots de inteligencia artificial (IA) por parte de autores, enfocándose en editoriales de ciencia, tecnología y medicina. De las editoriales evaluadas, solo 56 (34,4%) tenían políticas públicas sobre el uso de chatbots de IA. Ninguna permitía que los chatbots fueran acreditados como autores. La mayoría (87,5%) requería que se revelara el uso de IA en el proceso de redacción. Cuatro editoriales prohibieron completamente el uso de estas herramientas. El estudio sugiere que en el futuro podría haber un aumento en la adopción de políticas sobre IA por parte de las editoriales académicas.

ElementoResultado
Total de editoriales auditadas163
Editoriales con políticas públicas sobre el uso de chatbots de IA56 (34,4%)
Políticas que permiten acreditación de autoría para chatbots de IA0 (0%)
Políticas que requieren divulgación del uso de chatbots de IA49/56 (87,5%)
Editoriales que prohíben completamente el uso de chatbots de IA4 (2,5%)
Periodo de análisisSeptiembre 2023 – Diciembre 2023

¿Se ha utilizado un artículo tuyo para entrenar un modelo de inteligencia artificial? Casi seguro

Gibney, Elizabeth. «Has Your Paper Been Used to Train an AI Model? Almost Certainly». Nature 632, n.o 8026 (14 de agosto de 2024): 715-16. https://doi.org/10.1038/d41586-024-02599-9.

Los desarrolladores de inteligencia artificial (IA) están comprando acceso a valiosos conjuntos de datos que contienen artículos de investigación, lo que plantea incómodas preguntas sobre los derechos de autor. Las editoriales académicas están vendiendo el acceso a estos artículos a empresas tecnológicas para entrenar modelos de IA, lo que ha generado preocupación entre los investigadores, ya que estos acuerdos se realizan sin la consulta de los autores. Esto ha desencadenado un debate sobre el uso de trabajos publicados y, a veces, protegidos por derechos de autor, para entrenar la creciente cantidad de chatbots de IA en desarrollo.

Los expertos afirman que, si un artículo de investigación aún no ha sido utilizado para entrenar un gran modelo de lenguaje LLM, probablemente lo será pronto. Los investigadores están explorando métodos técnicos para que los autores puedan identificar si su contenido ha sido utilizado.

El mes pasado se reveló que la editorial académica británica Taylor & Francis firmó un acuerdo de 10 millones de dólares con Microsoft, permitiendo que la empresa tecnológica accediera a sus datos para mejorar sus sistemas de IA. En junio, se supo que la editorial Wiley ganó 23 millones de dólares al permitir que una empresa no identificada entrenara modelos de IA generativa con su contenido.

Lucy Lu Wang, investigadora de IA en la Universidad de Washington en Seattle, señala que cualquier cosa disponible en línea, ya sea en un repositorio de acceso abierto o no, es «muy probable» que ya haya sido utilizada para entrenar un LLM. Y si un artículo ya ha sido utilizado como datos de entrenamiento en un modelo, «no hay forma de eliminarlo» después de que el modelo haya sido entrenado, añade.

Los LLMs se entrenan con grandes volúmenes de datos, a menudo obtenidos de Internet. Estos modelos generan texto con fluidez al identificar patrones en miles de millones de fragmentos de lenguaje, conocidos como tokens, presentes en los datos de entrenamiento.

El uso de artículos académicos es valioso para los constructores de LLMs debido a su longitud y «alta densidad de información», dice Stefan Baack, quien analiza conjuntos de datos de entrenamiento de IA en la Fundación Mozilla. Entrenar modelos con una gran cantidad de información científica también les da una mejor capacidad para razonar sobre temas científicos, añade Wang, quien co-creó S2ORC, un conjunto de datos basado en 81.1 millones de artículos académicos.

Este tipo de acuerdos comerciales está en aumento. Este año, el Financial Times ofreció su contenido a OpenAI en un acuerdo lucrativo, al igual que el foro en línea Reddit con Google. Dado que las editoriales científicas probablemente ven como alternativa que su trabajo sea extraído sin un acuerdo, «creo que habrá más de estos acuerdos en el futuro», dice Wang.

Algunos desarrolladores de IA, como la Red de Inteligencia Artificial a Gran Escala, mantienen intencionadamente sus conjuntos de datos abiertos, pero muchas empresas que desarrollan modelos de IA generativa han mantenido en secreto gran parte de sus datos de entrenamiento, dice Baack. Los repositorios de acceso abierto como arXiv y la base de datos académica PubMed son fuentes «muy populares», aunque probablemente los artículos de revistas de pago han tenido sus resúmenes gratuitos extraídos por grandes empresas tecnológicas.

Probar que un LLM ha utilizado un artículo específico es difícil. Una forma es usar una oración inusual de un texto como entrada al modelo y ver si la salida coincide con las siguientes palabras en el original. Otra técnica conocida como membership inference attack mide si un modelo es más confiado cuando ve algo que ha visto antes. El equipo de De Montjoye ha desarrollado una versión de esto llamada «trampa de derechos de autor», que inserta oraciones plausibles pero sin sentido en un trabajo para rastrear si un modelo ha sido entrenado con ese contenido.

Aunque se pudiera demostrar que un LLM ha sido entrenado con un texto específico, no está claro qué pasaría después. Las editoriales sostienen que usar texto con derechos de autor en el entrenamiento sin licencia es una infracción, pero otros argumentan que los LLM no copian nada, sino que extraen información para generar nuevo texto.

En un caso judicial en curso en Estados Unidos, The New York Times está demandando a Microsoft y OpenAI por usar su contenido periodístico sin permiso para entrenar sus modelos, lo que podría sentar un precedente.

Muchos académicos están contentos de que su trabajo se incluya en los datos de entrenamiento de los LLM, especialmente si los modelos se vuelven más precisos. Sin embargo, los autores científicos tienen poco poder si las editoriales deciden vender el acceso a sus obras con derechos de autor, y no existe un mecanismo establecido para otorgar crédito o verificar si un texto ha sido utilizado.

Algunos investigadores, como De Montjoye, están frustrados. «Queremos LLMs, pero también queremos algo que sea justo, y creo que aún no hemos inventado cómo sería esto», dice.

Wiley y OUP confirman su colaboración en IA

Books+Publishing. «Wiley, OUP Confirm AI PartnershipsBooks+Publishing, August 5, 2024. https://www.booksandpublishing.com.au/articles/2024/08/05/256559/wiley-oup-confirm-ai-partnerships/.

En el Reino Unido, el Bookseller informa de que las editoriales académicas Wiley y Oxford University Press (OUP) han confirmado asociaciones de inteligencia artificial (IA), tras la reciente noticia de que Taylor & Francis ha vendido el acceso a la investigación de sus autores como parte de una asociación de IA con Microsoft.

El 5 de agosto de 2024, Books+Publishing informó que las editoriales académicas Wiley y Oxford University Press (OUP) han confirmado asociaciones con inteligencia artificial (IA), siguiendo el reciente anuncio de Taylor & Francis sobre la venta de acceso a la investigación de sus autores como parte de una colaboración con Microsoft.

OUP está trabajando activamente con empresas que desarrollan grandes modelos de lenguaje para explorar opciones para su desarrollo y uso responsable. La editorial enfatizó la importancia de mejorar los resultados de la investigación y promover el papel crucial de los investigadores en un mundo habilitado por la IA.

Un portavoz de Wiley declaró que la empresa cree en el potencial de la IA generativa para transformar las industrias basadas en el conocimiento y que es de interés público que estas tecnologías emergentes se entrenen con información de alta calidad y confiable. Wiley ha firmado dos acuerdos para utilizar contenido previamente publicado en el entrenamiento de estos modelos, garantizando que los autores y sociedades reciban compensación y protección de derechos según los acuerdos contractuales existentes.

Por otro lado, Cambridge University Press (CUP) está consultando a sus autores sobre la opción de participar y recibir una «remuneración justa» antes de cerrar acuerdos. Mandy Hill, directora general de publicaciones académicas de CUP, afirmó que se priorizarán los intereses y deseos de los autores antes de permitir que su trabajo se licencie para la IA generativa.

Los científicos que dedican tiempo a revisar manuscritos no reciben recompensas por sus esfuerzos. Es hora de cambiar eso.

Magazine, Undark. «The Misplaced Incentives in Academic Publishing». Undark Magazine, 4 de julio de 2024. https://undark.org/2024/07/04/opinion-misplaced-incentives-academic-publishing/.

Las lamentaciones sobre los modelos actuales de publicación académica provienen de todos los rincones de la comunidad científica. ¿Cómo funciona el sistema? El científico redacta los resultados de su estudio en forma de artículo. Ese artículo es revisado por «pares» (normalmente otros científicos) para una revista. Con pocas excepciones, esta es la ruta necesaria para publicar trabajos en el ecosistema profesional de la ciencia.

Los argumentos en contra son muchos, pero tienden a centrarse en características dudosas de la revisión por pares y el modelo de negocio de las revistas que publican informes revisados por pares sobre nuevas investigaciones. Las revistas cobran a las instituciones por suscripciones, y a menudo los investigadores individuales pagan hasta miles de dólares por artículo para su publicación. Todo esto mientras las revistas utilizan mano de obra gratuita o de bajo costo de editores y revisores. La hipocresía relacionada es que estas revistas se benefician de investigaciones pagadas por los contribuyentes, financiadas a través de organismos federales como la National Science Foundation y los National Institutes of Health.

A pesar de que el público financia gran parte de este trabajo, la mayor parte permanece tras un muro de pago, accesible gratuitamente solo para aquellos afiliados a instituciones que pueden pagar suscripciones (y los raros individuos que pueden pagar por sí mismos), eliminando así a la mayoría del público de la ciencia ciudadana. Muchas de las revistas que ofrecen artículos de «acceso abierto» lo hacen cobrando una tarifa exorbitante a los investigadores para publicar.

Pero por condenables que sean estos cargos, solo capturan un aspecto de la hipocresía y la irracionalidad en el modelo de publicación académica. Esto ha llevado a concluir que muchos de los mayores pecados, no apreciados, de la publicación no surgen de las revistas en sí, sino del ecosistema profesional que define la academia moderna. La estructura de incentivos fomenta un comportamiento que refuerza el modelo de publicación actual, que está roto.

El sistema actual recompensa la productividad individual mucho más que las contribuciones al sistema que fomenta la productividad. Es decir, la ciencia académica ha creado un desajuste entre los deseos y necesidades de los científicos individuales y el esfuerzo necesario para mantener una empresa científica sostenible, donde los comentarios de sus pares son necesarios.

Los científicos más experimentados suelen aconsejar dejar de lado la revisión de manuscritos o el servicio como editor de una revista y en su lugar centrarse en la propia producción. Este es un excelente consejo para un proceso pervertido: la revisión por pares de calidad es lo que da confianza en que la investigación que se lee en las revistas es de alta calidad. Pero la centralidad de la revisión por pares se basa en la suposición de que las personas evaluarán cuidadosamente el trabajo de otros por buena voluntad, o que los autores reconocerán las horas de trabajo que requieren las publicaciones de los revisores devolviendo el favor.

Seguramente, la participación de los científicos en el proceso puede ayudar a su propia productividad: los académicos construyen relaciones con los editores de revistas en las que podrían publicar sus propios manuscritos, y leer y revisar manuscritos les expone a nuevos trabajos. Pero en el mejor de los casos, estos beneficios son indirectos. Hablando claramente, prácticamente nadie en la historia de la ciencia profesional ha sido promovido o recompensado significativamente por proporcionar revisiones estelares del trabajo de otros. Aquellos que pasan horas mejorando el trabajo de sus pares a menudo lo hacen como un favor (o más bien, como una «donación»).

El sistema actual recompensa la productividad individual mucho más que las contribuciones al sistema que fomenta la productividad.

No es necesario estar versado en teoría de juegos evolutiva para reconocer cómo este sistema selecciona el comportamiento egoísta: las perspectivas de carrera de un científico son mucho mejores si decide solo producir manuscritos, en lugar de participar en su evaluación. El problema aquí puede describirse en términos termodinámicos: para que el sistema funcione responsablemente, la energía invertida debería ser aproximadamente igual a la energía que se obtiene. Muchos manuscritos publicados de impacto fueron producto del trabajo de dos o tres (o más) revisores. La única forma de agregar balance energético sería que cada investigador revisara dos o tres manuscritos por cada uno que publican como autor principal o corresponsal (uno de los que lideraron el esfuerzo de investigación). Desafortunadamente, los propios intereses de los científicos tienen prioridad.

Impresionantemente, el incentivo al egoísmo funciona tanto para científicos junior como senior. Los científicos junior deben centrarse en sí mismos porque la productividad es la clave para el ascenso profesional. Para los científicos senior, no hay razón para participar porque su (a menudo bien ganada) seguridad laboral elimina prácticamente cualquier consecuencia de no participar. Debido a la falta de incentivos, incluso las revistas de alto impacto pueden tener dificultades para encontrar revisores capacitados para los manuscritos enviados.

Los asociados postdoctorales y los estudiantes de posgrado pueden y deben participar formalmente en la revisión por pares porque muchos están calificados para hacerlo, y porque evaluar manuscritos es un excelente ejercicio de formación para el científico en desarrollo. Pero la motivación para incluir a los aprendices en la revisión por pares no es un nuevo deseo de formar a los científicos junior en todos los aspectos de la ciencia. Más bien, se necesita incluirlos porque se está quedando sin voluntarios más experimentados, y se debe encontrar la mano de obra donde pueda encontrarse.

La crisis de revisores tiene otros efectos perniciosos. Si todos los que son autores principales de un manuscrito que es revisado no devuelven el esfuerzo, entonces las matemáticas resultantes no cuadran tan bien: menos personas revisan manuscritos que las que los escriben. ¿El problema aquí? Las mentes que revisan nuevos trabajos deberían idealmente ser tan diversas en perspectiva como los autores que generan el trabajo. Este no es un problema de equilibrio, sino uno relacionado con la innovación: las diferentes perspectivas están mejor equipadas para apreciar la vasta gama de ciencia que se está llevando a cabo en todo el mundo.

Sin una gran y diversa base de revisores, un número relativamente pequeño de individuos moldea el trabajo que termina en las revistas. Incluso si esta pequeña fracción de súper-revisores son personas honestas y confiables, sus sesgos, metodológicos o de otro tipo, seguramente sesgarán los tipos de investigación que terminan en las páginas de nuestras revistas favoritas.

Al final, señalar estos defectos podría ser poco más que otra contribución al popular universo de quejas académicas. Se pueden identificar cosas del sistema que no gustan, que socavan la calidad, la originalidad y la inclusividad. Y algunos de estos elementos son legítimamente difíciles de cambiar.

Las mentes que revisan nuevos trabajos deberían idealmente ser tan diversas en perspectiva como los autores que generan el trabajo.

Sin embargo, la publicación académica es diferente de muchos otros rincones defectuosos de la ciencia profesional. Y algunas de las soluciones se pueden lograr con actividades relativamente de bajo esfuerzo. El pago por la revisión es una solución propuesta popular. Pero otras pueden lograrse sin consideraciones financieras. Por ejemplo, los decanos de ciencia en instituciones de élite podrían reunirse mañana (vía Zoom) y decidir una forma formal de incentivar fuertemente la participación en todos los aspectos del proceso de publicación. Podrían reconocer una verdad no reconocida: el científico que evalúa manuscritos regularmente, reanaliza datos y proporciona comentarios reflexivos y extensos es tanto un protector y promotor de la ciencia original como el que publica exclusivamente manuscritos por su cuenta. Estas son áreas factibles donde el liderazgo puede cambiar la conversación en relativamente poco tiempo. Por supuesto, existen grandes barreras para que algo de este tipo se ponga en práctica.

Al final, los intentos de racionalizar el sistema existente con argumentos como «Esto es lo que todos los demás están haciendo y lo que se ha hecho en el pasado» no pueden ser defendidos por ningún tipo de pensamiento maduro. Los caminos hacia muchos tipos de infierno están pavimentados con «Solo trabajo aquí».

Es necesario ser empático. Cambiar las cosas requiere tiempo y energía. Los sistemas que sustentan la publicación académica son subproductos de decisiones y no decisiones de personas ostensiblemente inteligentes que son hábiles en revelar las maravillas del mundo natural. Es hora de que dirijan su ingenio hacia adentro, hacia la creación de un nuevo sistema que recompense activamente a todos los que mantienen viva la ciencia.

Un conjunto de datos abierto sobre los gastos de procesamiento de artículos de seis grandes editoriales académicas (2019-2023)

Butler, Leigh-Ann, Madelaine Hare, Nina Schönfelder, Eric Schares, Juan Pablo Alperin, y Stefanie Haustein. «An open dataset of article processing charges from six large scholarly publishers (2019-2023)». arXiv, 12 de junio de 2024. https://doi.org/10.48550/arXiv.2406.08356.

El artículo presenta un conjunto de datos de tarifas de procesamiento de artículos (APC) producidos a partir de las listas de precios de seis grandes editoriales académicas – Elsevier, Frontiers, PLOS, MDPI, Springer Nature y Wiley – entre 2019 y 2023. Las listas de precios APC se descargaron de los sitios web de los editores cada año, así como a través de instantáneas de Wayback Machine para recuperar las tarifas por revista por año. El conjunto de datos incluye metadatos de revistas, método de cobro de APC e información de listas de precios anuales de APC en varias divisas (USD, EUR, GBP, CHF, JPY, CAD) para 8.712 revistas únicas y 36.618 combinaciones revista-año. El conjunto de datos se generó para permitir un análisis más preciso de las APC y puede apoyar el desarrollo de la colección de la biblioteca y el análisis cienciométrico estimando las APC pagadas en revistas de AA de oro e híbridas.

¿Cómo eligen los autores la revista a la que enviar un artículo?

Maggio, Lauren A., Natascha Chtena, Juan Pablo Alperin, Laura Moorhead, y John M. Willinsky. «“The Best Home for This Paper”: A Qualitative Study of How Authors Select Where to Submit Manuscripts». bioRxiv, 17 de mayo de 2024. https://doi.org/10.1101/2024.05.14.594165.

Para los investigadores, seleccionar una revista objetivo para enviar un manuscrito es una decisión crítica con implicaciones para la carrera. En educación médica, una investigación realizada en 2016 encontró que los autores estaban influenciados por múltiples factores como el prestigio de una revista y su misión. Sin embargo, desde esta investigación, el panorama de publicación ha cambiado para incluir una variedad más amplia de revistas, una mayor amenaza de revistas predatorias y nuevos modelos de publicación. Este estudio actualiza y expande cómo los autores de educación médica deciden a qué revista enviar, con el objetivo de describir los factores motivacionales y las características de las revistas que guían la toma de decisiones de los autores.

Los autores consideraron cinco grupos de enfoque cualitativos en los que participaron veintidós autores y editores de educación médica. Durante los grupos de enfoque, los participantes participaron en una discusión sobre cómo seleccionan una revista para enviar sus manuscritos. Se transcribió el audio de todos los grupos de enfoque. Las transcripciones se analizaron utilizando análisis temático de libro de códigos.

Los participantes consideraron múltiples factores al seleccionar una revista objetivo. Los factores incluyeron el impacto de una revista, el alcance de una revista, la calidad de la revista y factores técnicos (por ejemplo, límites de palabras). Los participantes también describieron cómo los factores sociales influían en su proceso y que el acceso abierto juega un papel que podría tanto alentar como disuadir la presentación.

Los hallazgos describen los factores motivacionales y las señales influyentes que guían a los autores en su toma de decisiones sobre la selección de revistas. Estos hallazgos confirman, extienden y actualizan los factores de selección de revistas reportados en educación médica y otras disciplinas. Notablemente, estos hallazgos enfatizan el papel de los factores sociales, las relaciones y las experiencias personales, que estaban ausentes en trabajos anteriores. Además, observamos una mayor consideración del OA y un alejamiento del énfasis en el prestigio de la revista.

NISO Publica el borrador de la revisión de la Práctica Recomendada para Versiones de Artículos de Revista

Journal Article Version (JAV) Recommended Practice. The National Information Standards Organization (NISO)

PDF

The National Information Standards Organization (NISO) anunció hoy que su borrador de la revisión de la Journal Article Version (JAV) Recommended Practice está abierto para comentarios públicos hasta el 7 de julio de 2024 en la página web del proyecto.

Publicado por primera vez en 2008, Journal Article Version (JAV) Recommended Practice se desarrolló para describir las diferentes versiones del contenido académico en línea. Desde entonces, las prácticas editoriales han seguido evolucionando y, con cambios como el rápido crecimiento de las publicaciones preprint, el concepto de una única versión oficial se ha vuelto menos relevante. Preguntas sobre las citas de diferentes versiones y el etiquetado de versiones, por ejemplo, han destacado la necesidad de estandarizar términos y recomendar cómo gestionar, rastrear e indexar múltiples versiones. El grupo de trabajo de NISO se formó para abordar estos desafíos y desarrollar una revisión de la Práctica Recomendada JAV, incluyendo un apéndice con múltiples ejemplos que ilustran una variedad de casos de uso para aquellos que buscan orientación.

«Nos complace presentar la Práctica Recomendada revisada para comentarios públicos,» dijo Clay Burgett, Copresidente del Grupo de Trabajo (Director Asistente de Tecnología de Aplicaciones, Publicaciones ACS). «Esperamos que sea útil para una variedad de partes interesadas en las comunicaciones académicas y esperamos incorporar comentarios de la comunidad en general.» Los Copresidentes del grupo de trabajo, Patrick Hargitt (Director Senior de Gestión de Productos, Atypon) y Michael Nason (Bibliotecario de Publicaciones y Becas Abiertas, Universidad de New Brunswick), destacaron los esfuerzos determinados de los miembros del grupo de trabajo para abordar de manera colaborativa los problemas y preguntas de un panorama editorial en constante evolución y la expectativa del grupo de someter su producto a revisión pública.

«NISO aprecia el servicio del Grupo de Trabajo de Revisión de JAV,» dijo Nettie Lagace, Directora Ejecutiva Asistente de NISO. «Muchas cosas han cambiado desde 2008, y estas revisiones esenciales ayudarán a asegurar que la Práctica Recomendada JAV se mantenga actualizada y satisfaga las necesidades de los creadores y consumidores de artículos académicos. Esperamos recibir más aportaciones y opiniones de la comunidad, que fortalecerán la Práctica Recomendada final.»

¿Qué tienen en cuenta los investigadores a la hora de elegir una revista a la que enviar un artículo para su publicación?

Maggio, Lauren A., Natascha Chtena, Juan Pablo Alperin, Laura L. Moorhead, y John M. Willinsky. «“The Best Home for This Paper”: A Qualitative Study of How Authors Select Where to Submit Manuscripts». bioRxiv, 17 de mayo de 2024. https://doi.org/10.1101/2024.05.14.594165.

Para los investigadores, seleccionar una revista objetivo para enviar un manuscrito es una decisión crítica con implicaciones en su carrera. En el contexto de la investigación médica, una investigación realizada en 2016 encontró que los autores eran influenciados por múltiples factores como el prestigio de una revista y su misión. Sin embargo, desde que se realizó esta investigación, el panorama editorial ha cambiado para incluir una variedad más amplia de revistas, una amenaza aumentada de revistas depredadoras y nuevos modelos de publicación. Este estudio actualiza y amplía cómo los autores de educación médica deciden a qué revista enviar con el objetivo de describir los factores motivacionales y las características de las revistas que guían la toma de decisiones de los autores.

Métodos: Los autores llevaron a cabo cinco grupos focales cualitativos en los que participaron veintidós autores y editores de educación médica. Durante los grupos focales, los participantes participaron en una discusión sobre cómo seleccionan una revista para enviar sus manuscritos. Se transcribió el audio de todos los grupos focales. Las transcripciones fueron analizadas utilizando análisis temático con un código de libro.

Resultados: Los participantes consideraron múltiples factores al seleccionar una revista objetivo. Los factores incluyeron el impacto de una revista, el alcance de una revista, la calidad de la revista y factores técnicos (por ejemplo, límites de palabras). Los participantes también describieron cómo los factores sociales influenciaron su proceso y que el acceso abierto juega un papel que podría tanto fomentar como disuadir la presentación.

Discusión: Los hallazgos describen los factores motivacionales y las señales influyentes que guían a los autores en su toma de decisiones sobre la selección de revistas. Estos hallazgos confirman, amplían y actualizan los factores de selección de revistas reportados en educación médica y otras disciplinas. Especialmente, estos hallazgos enfatizan el papel de los factores sociales, las relaciones y las experiencias personales, que estaban ausentes en trabajos previos. Además, observamos una mayor consideración del acceso abierto y un alejamiento del énfasis en el prestigio de la revista.

Los editores de revistas académicas están renunciando en masa: ¿un cambio en el horizonte de la comunicación académica?»

Sanderson, Katharine. «Journal Editors Are Resigning En Masse: What Do These Group Exits Achieve?» Nature 628, n.o 8007 (27 de marzo de 2024): 244-45. https://doi.org/10.1038/d41586-024-00887-y.

A principios de este mes, los editores de la revista de lingüística Syntax anunciaron públicamente sus renuncias en respuesta a cambios en el proceso de manejo de manuscritos impuestos por su editor, Wiley.

«Concluimos que nuestra posición como editores de la revista ya no es sostenible», escribieron los editores Klaus Abels y Suzanne Flynn en una carta abierta a autores y revisores de la revista el 9 de marzo. Agregaron que las medidas diseñadas para reducir costos y abordar un retraso en los documentos, asignando tareas de edición de copia que anteriormente eran manejadas por la oficina editorial independiente de Syntax a un equipo de producción sin conocimientos especializados en lingüística, significaba que la revista ya «no podía satisfacer las necesidades de nuestra comunidad».

Wiley dice que continuará publicando e invirtiendo en Syntax. «Cualquier cambio que haya realizado Wiley en Syntax ha sido diseñado para facilitar la publicación oportuna y de alta calidad de la revista», dice Allyn Molina, vicepresidente de desarrollo editorial.

El movimiento es el último evento de este tipo en lo que parece ser una forma emergente de protesta: la renuncia masiva de editores académicos.

Editores renuncian a revista de neurociencia para protestar contra los cargos de acceso abierto

Hasta ahora este año, los editores de cinco revistas han renunciado juntos, según un recuento no oficial del sitio web Retraction Watch. Esto siguió a 12 movimientos similares en 2023, un gran aumento respecto a los años anteriores (hubo 2 eventos similares tanto en 2021 como en 2022). El recuento comienza en 2015, aunque se han registrado eventos anteriores.

No está claro si las renuncias masivas están destinadas a volverse aún más frecuentes, dice Michael Clarke, consultor editorial en la firma de consultoría de gestión Clarke & Esposito en Washington DC. Pero agrega que están recibiendo mucha atención. Muchas renuncias masivas, dice Clarke, son en respuesta a cambios en los modelos de negocios en la industria editorial.

Este fue el caso para los editores y miembros de la junta editorial de la revista Critical Public Health, publicada por Taylor & Francis, quienes renunciaron en julio pasado. La ex coeditora en jefe de la revista, Judith Green, socióloga de la Universidad de Exeter, Reino Unido, dice que el movimiento fue provocado en parte por los planes del editor de hacer que la revista sea de acceso abierto. «No es que estuviéramos en contra del principio del acceso abierto», dice. En cambio, los editores se oponían profundamente al modelo de tarifa de procesamiento de artículos, en el que a los autores se les cobran tarifas para publicar sus artículos de acceso abierto. El equipo decidió renunciar solo después de un año de discusiones con el editor sobre modelos alternativos que no produjeron un compromiso, dice Green. Un portavoz de Taylor & Francis refirió a Nature a una declaración emitida en el momento de la renuncia, diciendo que el editor estaba decepcionado por las renuncias, pero estaba deseando reclutar un nuevo equipo editorial.

«El gran tema [de las renuncias masivas] es esta tensión de prioridades competitivas», dice Ivan Oransky, cofundador de Retraction Watch. «Tienes editores —la mayoría de ellos son con fines de lucro— que demandan y requieren un crecimiento constante porque eso es lo que exige el mercado de valores. Tienes investigadores —académicos o editores, en su mayor parte— que defienden la calidad y quizás la profundidad y el tiempo de revisión. Esas están en oposición.»

Más que una protesta Clarke dice que puede entender por qué los editores insatisfechos podrían tomar medidas por su cuenta. «Si una comunidad académica desea controlar las decisiones comerciales de una revista, la mejor manera de hacerlo es ser propietario de la revista», dice. «Estas renuncias masivas fueron todos casos en los que los editores estaban trabajando en revistas propiedad del editor».

Guía necesaria para el uso de la inteligencia artificial en la detección de conductas impropias en las presentaciones de artículos a revistas científicas

Hosseini, Mohammad, y David B Resnik. «Guidance Needed for Using Artificial Intelligence to Screen Journal Submissions for Misconduct». Research Ethics, 11 de mayo de 2024, 17470161241254052. https://doi.org/10.1177/17470161241254052.

Las revistas y editoriales están utilizando cada vez más la inteligencia artificial (IA) para examinar las presentaciones en busca de posibles conductas impropias, incluido el plagio y la manipulación de datos o imágenes.

Si bien el uso de la IA puede mejorar la integridad de los manuscritos publicados, también puede aumentar el riesgo de acusaciones falsas/no fundamentadas. Las ambigüedades relacionadas con las responsabilidades de las revistas y editoriales con respecto a la equidad y transparencia también plantean preocupaciones éticas.

En el presente artículo, se proporciona la siguiente guía:

    • Todos los casos de conducta impropia sospechosa identificados por herramientas de IA deben ser revisados cuidadosamente por humanos para verificar la precisión y garantizar la responsabilidad;
    • Las revistas/editoriales que utilizan herramientas de IA para detectar conductas impropias deben utilizar solo herramientas bien probadas y confiables, permanecer vigilantes con respecto a formas de conducta impropia que no pueden ser detectadas por estas herramientas y mantenerse al tanto de los avances en tecnología;
    • Las revistas/editoriales deben informar a los autores sobre irregularidades identificadas por herramientas de IA y darles la oportunidad de responder antes de enviar acusaciones a sus instituciones de acuerdo con las pautas del Comité de Ética de Publicaciones;
    • Las revistas/editoriales que utilizan herramientas de IA para detectar conductas impropias deben examinar todas las presentaciones relevantes y no solo presentaciones seleccionadas al azar/intencionalmente; y
    • Las revistas deben informar a los autores sobre su definición de conducta impropia, su uso de herramientas de IA para detectar conductas impropias y sus políticas y procedimientos para responder a casos sospechosos de conducta impropia.