Archivo de la etiqueta: Investigación

AI y la ciencia: lo que piensan 1.600 investigadores

Van Noorden, Richard, y Jeffrey M. Perkel. «AI and Science: What 1,600 Researchers Think». Nature 621, n.o 7980 (27 de septiembre de 2023): 672-75. https://doi.org/10.1038/d41586-023-02980-0.

Las herramientas de inteligencia artificial (IA) están cada vez más presentes en la ciencia, y muchos científicos anticipan que pronto serán centrales en la práctica de la investigación, según una encuesta de Nature a más de 1.600 investigadores de todo el mundo.

Cuando se les preguntó qué tan útiles creían que se volverían las herramientas de IA para sus campos en la próxima década, más de la mitad esperaba que las herramientas fueran «muy importantes» o «esenciales». Sin embargo, los científicos también expresaron fuertes preocupaciones sobre cómo la IA está transformando la forma en que se realiza la investigación.

El porcentaje de documentos de investigación que mencionan términos de IA ha aumentado en todas las áreas en la última década, según un análisis para este artículo realizado por Nature.

Las técnicas estadísticas de aprendizaje automático están ahora bien establecidas, y los últimos años han visto avances rápidos en la IA generativa, incluidos los modelos de lenguaje grandes (LLMs), que pueden producir salidas fluidas como texto, imágenes y código basado en los patrones en sus datos de entrenamiento. Los científicos han estado utilizando estos modelos para ayudar a resumir y escribir documentos de investigación, generar ideas y escribir código, y algunos han estado probando la IA generativa para ayudar a producir nuevas estructuras de proteínas, mejorar los pronósticos meteorológicos y sugerir diagnósticos médicos, entre muchas otras ideas.

Al centrarse primero en el aprendizaje automático, los investigadores destacaron muchas formas en que las herramientas de IA los ayudan en su trabajo. De una lista de posibles ventajas, dos tercios señalaron que la IA proporciona formas más rápidas de procesar datos, el 58% dijo que acelera cálculos que antes no eran factibles, y el 55% mencionó que ahorra tiempo y dinero a los científicos.

«La IA me ha permitido progresar en responder preguntas biológicas donde el progreso era previamente inviable», dijo Irene Kaplow, bióloga computacional en la Universidad Duke en Durham, Carolina del Norte.

Los resultados de la encuesta también revelaron preocupaciones generalizadas sobre los impactos de la IA en la ciencia. De una lista de posibles impactos negativos, el 69% de los investigadores dijo que las herramientas de IA pueden llevar a una mayor dependencia del reconocimiento de patrones sin comprensión, el 58% dijo que los resultados pueden afianzar el sesgo o la discriminación en los datos, el 55% pensó que las herramientas podrían facilitar el fraude y el 53% señaló que el uso mal considerado puede llevar a investigaciones irreproducibles.

«El principal problema es que la IA desafía nuestros estándares existentes de prueba y verdad», dijo Jeffrey Chuang, quien estudia análisis de imágenes de cáncer en el Laboratorio Jackson en Farmington, Connecticut.

Usos esenciales Para evaluar las opiniones de los investigadores activos, Nature envió por correo electrónico a más de 40,000 científicos que habían publicado documentos en los últimos 4 meses de 2022, además de invitar a los lectores del Nature Briefing a participar en la encuesta. Dado que los investigadores interesados en la IA eran mucho más propensos a responder a la invitación, los resultados no son representativos de todos los científicos. Sin embargo, los encuestados se dividieron en 3 grupos: el 48% que desarrollaba o estudiaba directamente la IA, el 30% que había usado IA para su investigación y el 22% restante que no usaba IA en su ciencia.

Entre los que usaban IA en su investigación, más de una cuarta parte sintió que las herramientas de IA se volverían «esenciales» para su campo en la próxima década, en comparación con el 4% que pensaba que las herramientas eran esenciales ahora, y otro 47% pensó que la IA sería «muy útil». A los investigadores cuyo campo de investigación ya era la IA no se les hizo esta pregunta. Los investigadores que no usan IA eran, como era de esperar, menos entusiastas. Aun así, el 9% sintió que estas técnicas se volverían «esenciales» en la próxima década, y otro 34% dijo que serían «muy útiles».

Grandes modelos de lenguaje El chatbot ChatGPT y sus primos LLM fueron las herramientas que los investigadores mencionaron más a menudo cuando se les pidió que escribieran el ejemplo más impresionante o útil de herramientas de IA en la ciencia

Cuando se les pidió que seleccionaran de una lista de posibles impactos negativos de la IA generativa, el 68% de los investigadores se preocuparon por la proliferación de desinformación, otro 68% pensaron que facilitaría el plagio y dificultaría su detección, y el 66% estaban preocupados por la introducción de errores o inexactitudes en los documentos de investigación.

Los encuestados agregaron que estaban preocupados por estudios falsificados, información falsa y la perpetuación de sesgos si las herramientas de IA para diagnósticos médicos se entrenaran con datos históricamente sesgados.

«Claramente hay un mal uso de los grandes modelos de lenguaje, inexactitud y resultados huecos pero con un tono profesional que carecen de creatividad», dijo Isabella Degen, ingeniera de software y exemprendedora que ahora está estudiando para un doctorado en el uso de IA en medicina en la Universidad de Bristol, Reino Unido. «En mi opinión, no entendemos bien dónde está la línea entre el buen uso y el mal uso».

El beneficio más claro, pensaron los investigadores, era que los LLMs ayudaban a los investigadores cuyo primer idioma no es el inglés, al ayudar a mejorar la gramática y el estilo de sus documentos de investigación, o para resumir o traducir otro trabajo. «A pesar de un pequeño número de actores malintencionados, la comunidad académica puede demostrar cómo utilizar estas herramientas para el bien», dijo Kedar Hippalgaonkar, científico de materiales en la Universidad Tecnológica de Nanyang en Singapur.

Los investigadores que usan regularmente LLMs en el trabajo todavía son una minoría, incluso entre el grupo interesado que respondió a la encuesta de Nature. Un 28% de los que estudiaron IA dijeron que usaban productos de IA generativa como LLMs todos los días o más de una vez a la semana, un 13% de los que solo usan IA lo dijeron, y solo un 1% entre otros, aunque muchos al menos habían probado las herramientas.

Además, el uso más popular entre todos los grupos fue para la diversión creativa no relacionada con la investigación (un encuestado usó ChatGPT para sugerir recetas); una proporción menor usó las herramientas para escribir código, idear ideas de investigación y ayudar a escribir documentos de investigación.

Algunos científicos no quedaron impresionados por los resultados de los LLMs. «Siento que ChatGPT ha copiado todos los malos hábitos de escritura de los humanos: usando muchas palabras para decir muy poco», escribió un investigador que usa el LLM para ayudar a editar copias de documentos. Aunque algunos estaban emocionados por el potencial de los LLMs para resumir datos en narrativas, otros tuvieron una reacción negativa. «Si usamos IA para leer y escribir artículos, la ciencia pronto pasará de ser ‘para humanos por humanos’ a ‘para máquinas por máquinas'», escribió Johannes Niskanen, un físico de la Universidad de Turku en Finlandia.



La IA generativa frente a la publicación académica

«Hanging in the balance: Generative AI versus scholarly publishing». Accedido 24 de abril de 2024. https://spie.org/news/photonics-focus/janfeb-2024/hanging-in-the-balance#_=

Desde la invención de la imprenta por Gutenberg en 1454, el sector editorial ha enfrentado desafíos relacionados con la alfabetización, el plagio, la censura de la información y el acceso a la misma. El lanzamiento de ChatGPT-3 en noviembre de 2022 marcó un hito, ya que este modelo de lenguaje generativo ha revolucionado la capacidad de generación de ideas, lo que ha generado tanto entusiasmo como preocupación en la comunidad académica.

Uno de los aspectos más destacados del debate es la creatividad de los modelos de lenguaje generativo, que pueden generar textos e imágenes. Aunque su capacidad para inventar referencias puede ser un problema, estos modelos son útiles para la generación de nuevas ideas y para identificar lagunas en la investigación existente. Sin embargo, surge la pregunta sobre la atribución de autoría, ya que los modelos generativos no pueden ser considerados como autores de estudios científicos, según el Consejo de Ética en Publicación (COPE).

En cuanto a la revisión por pares, la falta de revisores cualificados y la sobrecarga de trabajo en los editores han llevado a considerar el uso de AI para agilizar el proceso. Aunque existen preocupaciones sobre la confidencialidad y el sesgo en los resultados generados por los modelos de lenguaje generativo, estos también pueden ser herramientas útiles para la revisión de literatura y la identificación de trabajos relevantes en un área de investigación.

Otro aspecto a considerar es el fraude en la publicación académica, que ha aumentado con la capacidad de los modelos de lenguaje generativo para producir textos con una calidad gramatical aparentemente perfecta. Sin embargo, la responsabilidad sigue recayendo en los autores humanos, quienes deben garantizar la integridad ética de sus investigaciones.

A pesar de estos desafíos, los modelos de lenguaje generativo también ofrecen oportunidades para hacer que la publicación académica sea más accesible para personas cuyo idioma nativo no es el inglés. Estas herramientas pueden ayudar a superar barreras lingüísticas y permitir que los investigadores se centren en la ciencia en lugar de en la perfección gramatical en sus manuscritos.

En última instancia, el debate sobre el papel de la AI generativa en la publicación académica aún está en curso. A medida que la tecnología avanza, es crucial abordar sus desafíos éticos y técnicos para garantizar que beneficie a la comunidad académica en su conjunto.

Inteligencia Artificial Generativa y Publicación Académica

Ahari, Juni. «Generative AI and Scholarly Publishing». Ithaka S+R (blog), 23 de abril de 2024. https://sr.ithaka.org/blog/generative-ai-and-scholarly-publishing/.

Durante los últimos años, Ithaka S+R ha llevado a cabo varios estudios importantes sobre el panorama de la publicación académica durante un período de cambio tecnológico rápido. No hay mejor ejemplo de lo rápido y radical que es este ritmo que las herramientas de inteligencia artificial generativa, que han pasado de los márgenes a un punto focal de la publicación académica en poco más de un año.

La primavera pasada, se llevaron a canbo entrevistas con editores, bibliotecarios, defensores, analistas, financiadores y responsables políticos a medida que los horizontes de posibilidad y riesgo planteados por la inteligencia artificial generativa se hacían evidentes. Se publicó, » The Second Digital Transformation of Scholarly Publishing«, a principios de este año.

En los meses intermedios, el alcance de la inteligencia artificial generativa en el ciclo de vida de la publicación académica ha crecido dramáticamente. Las herramientas de descubrimiento mejoradas están proporcionando formas más eficientes de adaptar la búsqueda y sintetizar cuerpos enteros de literatura para investigadores y lectores. Mientras tanto, las herramientas en el detección para automatizar aspectos de la revisión por pares, facilitar la presentación de artículos e identificar el fraude en la investigación ya están en uso o en la cima de los pipelines de desarrollo de productos. A medida que el panorama de productos comienza a madurar, y a medida que los casos de uso de los investigadores se vuelven más discernibles, se disponen de datos para respaldar una reflexión más profunda sobre cómo la inteligencia artificial generativa afectará a la comunicación y prácticas de publicación académica que no existían en este momento el año pasado.

Las cambiantes y rápidas necesidades y expectativas de los usuarios, el potencial de la inteligencia artificial generativa para mitigar desafíos sistémicos obstinados en la industria de la publicación académica, y la conciencia de los riesgos que plantea la inteligencia artificial generativa para el conocimiento experto demandan que encontremos tiempo para una reflexión profunda sobre lo que significa la inteligencia artificial generativa para la publicación académica como sector y su valor como componente de la infraestructura compartida que apoya la investigación científica y académica y las comunicaciones.

Para ayudar, Ithaka S+R está lanzando un nuevo estudio sobre las implicaciones estratégicas de la inteligencia artificial generativa para la publicación académica, con el apoyo de STM Solutions y un grupo de sus miembros. Las siguientes preguntas clave guiarán nuestra investigación:

¿La inteligencia artificial generativa se integrará en los objetivos, procesos e infraestructuras existentes para la publicación académica? ¿O representa esta una tecnología transformadora que requerirá una reestructuración fundamental de esos objetivos, procesos e infraestructuras? ¿Podría la inteligencia artificial generativa interpretar efectivamente nuestras suposiciones actuales sobre el papel y propósito de los editores obsoletas? ¿Qué nuevos roles podrían desempeñar los editores en un entorno de información radicalmente transformado? ¿Qué transformaciones potenciales deberían alentar los editores y qué riesgos requieren respuestas coordinadas inmediatas mientras la tecnología aún está echando raíces en el sector? ¿Qué tipos nuevos de infraestructura técnica y/o social compartida son necesarios para apoyar la adopción ética de la inteligencia artificial generativa en apoyo de los objetivos de la investigación y la publicación académica? ¿Qué sistemas y estructuras serán necesarios para equilibrar las necesidades de autores, lectores, titulares de derechos, editores y agregadores? ¿Qué sigue?

Ithaka S+R llevará a cabo entrevistas con tomadores de decisiones del sector editorial y otros con experiencia en el tema de la inteligencia artificial generativa, sobre las oportunidades y riesgos. Los hallazgos de nuestra investigación se compartirán a través de un informe temático y un seminario web público este verano. Este proyecto es parte de un conjunto de investigaciones que estamos llevando a cabo para explorar los impactos de la inteligencia artificial generativa en las prácticas de investigación y comunicación académica.

CANGURU: directrices éticas y de divulgación para el uso de inteligencia artificial generativa en la investigación académica

Cacciamani, Giovanni, Michael Eppler, Conner Ganjavi, Asli Pekcan, Brett Biedermann, Gary Collins, y Inderbir Gill. «Development of the ChatGPT and generative artificial intelligence natural large language models for accountable reporting and use (cangaru) guidelines», 27 de junio de 2023. https://doi.org/10.17605/OSF.IO/9Y5NW.

Ver guidelines

CANGARU es una iniciativa interdisciplinaria que busca establecer estándares éticos y de divulgación para el uso de inteligencia artificial generativa y modelos de lenguaje natural en la investigación académica. Su objetivo es promover el uso responsable de estas tecnologías mediante la colaboración con instituciones y desarrollar directrices coherentes y universales. Se enfoca en crear criterios para prácticas éticas y transparentes en el ámbito académico.

La iniciativa ChatGPT, Inteligencia Artificial Generativa y Modelos de Lenguaje Natural para el Reporte y Uso Responsable (CANGARU) con el objetivo de establecer un consenso interdisciplinario sobre el uso responsable, divulgación y guía para el reporte del uso de GAI/GPTs/LLM en el ámbito académico. Trabajando colaborativamente con individuos, organizaciones regulatorias académicas y editoriales, se mitigará de manera efectiva la posible confusión o guías conflictivas que podrían surgir cuando varios grupos trabajan independientemente en la misma tarea. A su vez, esto asegurará que cualquier recomendación sea coherente, completa y universalmente aplicable, promoviendo el uso responsable de esta poderosa tecnología.

El objetivo general de las directrices CANGARU es establecer prácticas recomendadas comúnmente compartidas y transdisciplinares para el uso de GAI/GPTs/LLM en el ámbito académico de la siguiente manera:

a. La Lista de Criterios ‘NO HACER’: Será una guía integral que tiene como objetivo asegurar el uso ético y adecuado de GAI/GPTs/LLM en la investigación académica. Cubrirá cada paso del proceso académico, desde (pero no limitado a) la generación de hipótesis de investigación, la conducción del estudio y el análisis de datos (incluida la codificación), la creación de imágenes, la interpretación de hallazgos y la redacción, revisión, refinamiento y edición del manuscrito. Esta lista servirá como un recurso valioso para los investigadores, proporcionando orientación sobre qué evitar a lo largo de las diferentes etapas del proceso de investigación. Al identificar y resaltar posibles obstáculos y preocupaciones éticas, la Lista de Criterios ‘NO HACER’ ayudará a los investigadores a navegar el uso de GAI/GPTs/LLM de manera responsable y con integridad.

b. La Lista de Criterios de Divulgación: Proporcionará orientación para que los investigadores divulguen de manera transparente su uso de GAI/GPTs/LLM en la investigación académica, mejorando la transparencia, la responsabilidad y permitiendo una mejor evaluación de los hallazgos de investigación. Se enfatiza la importancia de qué y cómo divulgar, fomentando la responsabilidad y abordando los posibles riesgos y limitaciones asociados con esta tecnología.

c. La Lista de Criterios de Reporte: Proporcionará una lista de verificación de recomendaciones para garantizar el reporte completo y transparente de GAI/GPTs/LLM cuando se utilicen como intervenciones en estudios científicos. Considerará todos los aspectos importantes que deben reportarse en el manuscrito científico para mejorar la transparencia, mejorar la reproducibilidad, estandarizar las prácticas de reporte, reducir la interpretación errónea, apoyar los procesos de revisión por pares y editoriales, y facilitar la síntesis de investigación y la traducción del conocimiento.

¿Deben los investigadores utilizar la IA para escribir artículos? Un grupo aboga por normas comunitarias

Else, H. «Should Researchers Use AI to Write Papers? Group Aims for Community-Driven Standards». Science, accedido 22 de abril de 2024. https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards.

En los últimos meses ha surgido un intenso debate sobre cuándo y cómo deberían los programas de inteligencia artificial (IA) generadora de texto, como ChatGPT, ayudar a redactar artículos de investigación. Un grupo de 4000 investigadores de diversas disciplinas y países está trabajando en directrices que podrían ser adoptadas ampliamente en la publicación académica. Esta iniciativa, conocida como CANGARU, busca reemplazar el paisaje fragmentado de las directrices actuales con un conjunto único de estándares que representen el consenso de la comunidad investigadora.

CANGARU Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines es una colaboración entre investigadores y editoriales como Elsevier, Springer Nature y Wiley, así como representantes de revistas como eLife, Cell y The BMJ, junto con el Comité de Ética de Publicación. El objetivo es lanzar un conjunto final de directrices para agosto, actualizándolas anualmente debido a la rápida evolución de esta tecnología. Estas directrices incluirán formas en las que los autores no deben utilizar los grandes modelos de lenguaje (LLMs) que alimentan a los chatbots, así como cómo deben revelar otros usos.

Si bien algunos argumentan que las herramientas de IA pueden ayudar a redactar manuscritos de manera responsable, otros temen que los defraudadores científicos las utilicen para publicar trabajos falsos convincentes rápidamente. La propensión de los LLMs a inventar cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, representa una grave amenaza para la investigación y la publicación científica, según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch.

Algunas revistas y organismos ya han establecido reglas sobre cómo los científicos pueden usar herramientas de IA generativa en su trabajo, aunque el nivel de orientación varía. CANGARU está llevando a cabo una revisión sistemática de la literatura relevante para informar las directrices de IA. Sin embargo, algunos investigadores temen que la iniciativa no avance lo suficientemente rápido, dado el rápido progreso de la IA generativa.

El número de investigadores que utilizan estas herramientas en sus escritos parece estar aumentando, y se han identificado casos de uso no divulgado e ilícito de ChatGPT. Algunos investigadores han buscado pistas más sutiles en el texto generado por LLM. A medida que se establezcan las directrices de IA, el próximo paso será garantizar que los autores las cumplan, lo que requerirá la colaboración de las editoriales y un riguroso proceso de revisión por pares.

Prácticas editoriales depredadoras y cuestionables: cómo reconocerlas y evitarlas

Braak, Pascal, Dirk van Gorp, Chantal Hukkelhoven, y Tessa de Roo. «Predatory and Questionable Publishing Practices: How to Recognise and Avoid Them», 20 de marzo de 2024. https://doi.org/10.5281/zenodo.10688081

PDF

Esta guía, escrita por especialistas en acceso abierto en universidades de los Países Bajos, brinda información y consejos prácticos para los autores sobre cómo evitar revistas cuestionables y depredadoras.

El papel de los editores es crucial en la producción y difusión de la investigación académica. Facilitan la revisión por pares, brindan apoyo editorial, manejan la producción y distribución, y garantizan la disponibilidad de las publicaciones científicas.

Publicar con un editor de buena reputación aumenta la visibilidad de los investigadores y su trabajo, y puede ayudar a impulsar el impacto de los resultados de la investigación. Hay miles de editores (de acceso abierto) confiables en todo el mundo y en cada disciplina académica que ofrecen servicios de publicación de alta calidad guiados por las mejores prácticas y estándares internacionales.

Es beneficioso para los académicos publicar en una revista, libro o serie de conferencias autoritaria y de buena calidad producida por un editor de buena reputación en su campo de investigación. Sin embargo, hay una creciente preocupación sobre el aumento del número de editores y revistas que llevan a cabo prácticas de publicación presuntamente cuestionables, como la revisión por pares de baja calidad y/o la adquisición agresiva, y los editores depredadores fraudulentos.

Los editores depredadores pueden perjudicar a los académicos y a sus instituciones financieramente y en cuanto a la reputación al cobrar una tarifa por ninguna revisión por pares o por ningún servicio de publicación en absoluto. Los editores depredadores y las prácticas de publicación cuestionables tienen un efecto negativo en la credibilidad del registro académico publicado y en la comunidad académica en su conjunto.

¿Cómo se pueden reconocer y evitar estas prácticas y editores? ¿Qué sucede si se ha enviado un artículo a, o se encuentra en un proceso de publicación con, un editor y algo sale mal o parece inexacto?

Características deseables de los identificadores persistentes

Chodacki, John, y Todd Carpenter. «Desirable Characteristics of Persistent Identifiers». Upstream, 19 de marzo de 2024. https://upstream.force11.org/desirable-characteristics-for-persistent-identifiers/.

En un panorama digital en rápida evolución, los identificadores persistentes (PID) se erigen en componentes cruciales para el avance y la difusión de la investigación, apuntalando la eficiencia, la transparencia y la interconectividad de la comunicación académica. Su aplicación estratégica, guiada por principios y prácticas reconocidos internacionalmente, es esencial para fomentar un entorno de investigación abierto y colaborativo.

Los identificadores persistentes (PIDs) en la investigación académica han recibido una creciente atención, particularmente en el contexto de la ciencia abierta. Varios principios, como los Principios FAIR (Encontrable, Accesible, Interoperable y Reutilizable) y los Principios de Infraestructura Académica Abierta (POSI), destacan la importancia de los PIDs para mejorar la eficiencia y transparencia de la comunicación académica.

Open Science Toolkit, publicado en 2022 por la UNESCO como parte de la fase de aplicación de su Recommendation on Open Science, incluye una guía sobre Bolstering Open Science Infrastructure for All, que detalla lo que la UNESCO considera «factores [que] deben tener en cuenta quienes desarrollan, financian y/o utilizan infraestructuras de ciencia abierta». Entre ellos figuran:

● Transparencia de costes y beneficios;
● Interoperabilidad para potenciar la reutilización;
● Cocreación cooperativa;
● Atención y beneficios compartidos; y
● Armonización con la política de ciencia abierta y supervisión.

Es importante señalar que en el apartado «Infraestructura básica», la UNESCO escribe: «Debe prestarse la debida atención a los identificadores únicos persistentes de los objetos digitales», dejando claro que consideran los PID una parte crucial de la infraestructura más amplia de la ciencia abierta a la que se aplican las consideraciones anteriores.

Los Principios de la Infraestructura Académica Abierta (POSI), desarrollado originalmente en 2015 y actualizado más recientemente en 2023, «ofrece un conjunto de directrices por las que las organizaciones e iniciativas de infraestructura académica abierta que apoyan a la comunidad investigadora pueden ser dirigidas y sostenidas». Algunas de las consideraciones que POSI enumera en el apartado de gobernanza, en particular que la infraestructura abierta debe tener, son las más relevantes para nuestra orientación sobre los PID:

● Cobertura en toda la empresa académica, siendo inclusiva para una amplia gama de disciplinas académicas, geografías, instituciones y actores;
● Gobernada por las partes interesadas, ya que esto «genera confianza en que la organización tomará decisiones impulsadas por el consenso de la comunidad y un equilibrio de intereses»;
● Gobernanza transparente, ya que esto ayuda a construir y mantener la confianza en la comunidad; e
● Incentivos para cumplir la misión, en particular que «las organizaciones y los servicios revisen periódicamente el apoyo de la comunidad y la necesidad de sus actividades».

Scholarly Communication Infrastructure Guide,, publicada por el Grupo de Trabajo de Infraestructura Compartida de HELIOS en 2023, se basa en la visión de la UNESCO de una infraestructura científica abierta. Esta guía hace hincapié en la transparencia, la colaboración, las capacidades técnicas, la gobernanza, el cumplimiento de las normas de acceso público y la puntualidad. Aunque no presiona a favor de proveedores o soluciones concretos, guía a los responsables institucionales a través de las preguntas importantes que deben plantearse a la hora de decidir comprar, construir o asociarse en infraestructuras académicas. Estas mismas preguntas podrían adaptarse y plantearse a la hora de decidir si adoptar determinados PID o servicios relacionados. Por ejemplo:

● ¿Son transparentes y asequibles los precios a corto plazo y los costes a largo plazo?
● ¿Existen oportunidades de asociación con proveedores de código abierto o sin ánimo de lucro?
● ¿Se basa la infraestructura en formatos y protocolos estándar e interoperables?
● ¿Cuál es el plan de sostenibilidad de la organización u organizaciones rectoras que apoyan la infraestructura?
● ¿Pueden los usuarios proporcionar orientación sobre su dirección, usabilidad y desarrollo?
● ¿La infraestructura es propiedad y/o está gobernada por miembros de la comunidad académica?
● ¿Permitirá la infraestructura cumplir los requisitos políticos de los organismos de financiación?

Otra fuente de orientación sobre las características y principios deseables para los PID es el artículo fundacional de 2017 “Identifiers for the 21st Century,», que hace hincapié en varios criterios clave para la infraestructura de EPI:

● Construida para la conexión y la expansión
● Promover la interoperabilidad
● Llenar las lagunas específicas de la comunicación de la investigación
● Garantizar la disponibilidad abierta de los metadatos
● Establecer la fiabilidad de los identificadores persistentes
● Hacer hincapié en la propiedad y la gobernanza de la comunidad
● Fomentar la sostenibilidad de la organización

La implementación estratégica de PIDs, alineada con estos principios y prácticas, es esencial para fomentar un entorno de investigación abierto y colaborativo. Algunas características deseables de la infraestructura de PIDs incluyen la disponibilidad abierta de metadatos básicos, el uso de servicios de resolución establecidos, la documentación de políticas de identificación, servicios de monitoreo y reporte, facilidad de asignación y curación de metadatos, estructuras estandarizadas y extensibilidad, y gobernanza comunitaria. Estas características, combinadas con la adopción de principios globales de ciencia abierta y una colaboración entre la comunidad académica, financiadores y responsables de políticas, pueden garantizar que los PIDs contribuyan a un paisaje académico más inclusivo y transparente.

Competencias de los investigadores

European Commission, European Research Executive Agency, Researchers’ skills, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2848/6977

Este informe aborda las competencias de los investigadores, como parte de una serie de tres informes de retroalimentación a las políticas, que hacen balance de los avances y las prácticas prometedoras generadas por una selección de proyectos financiados por la UE sobre competencias, la reforma de la evaluación de la investigación y las actividades de I+i de los proyectos «Ciencia con y para la sociedad» (SWAFS) de Horizonte 2020 que apoyan las alianzas. Este informe es el primero que recoge las contribuciones de los proyectos financiados por la UE sobre desarrollo de capacidades desde el lanzamiento del sitio web del marco europeo de competencias para los investigadores (ResearchComp) en 2023. Ofrece una visión general de los avances logrados hasta la fecha, sobre la base de actividades y resultados emergentes e intermedios. Sin embargo, sólo incluye los avances de las primeras fases; es probable que en los próximos años se desarrollen a gran velocidad otras actividades, productos y resultados en este ámbito.

50 aspectos esenciales de la comunicación científica

Bertemes, Jean Paul, Haan, Serge and Hans, Dirk. 50 Essentials on Science Communication, Berlin, Boston: De Gruyter Mouton, 2024. https://www.degruyter.com/document/doi/10.1515/9783110763577/html?lang=en

Descargar

La comunicación científica es cada vez más importante. Las instituciones de investigación, los científicos y los comunicadores científicos quieren comprometerse con la sociedad, compartir sus conocimientos y generar confianza. Al mismo tiempo, se trata de competir por los fondos de investigación y el personal de alto nivel. ¿Cómo hacerlo bien y qué hay que tener en cuenta a la hora de desarrollar una estrategia de comunicación?

Este libro, práctico y ameno, ofrece los fundamentos de la comunicación científica orientada a objetivos. Está dirigido a científicos en formación y a cualquiera que quiera dar sus primeros pasos en el campo de la comunicación científica. Autores internacionales con experiencia en este campo comparten sus reflexiones esenciales sobre aspectos importantes de la comunicación científica contemporánea.

El oscuro mundo de los carteles de citación

The Chronicle of Higher Education. «Opinion | The Dark World of ‘Citation Cartels’», 6 de marzo de 2024. https://www.chronicle.com/article/the-dark-world-of-citation-cartels.


En el complejo panorama de la investigación contemporánea, el lema «publicar o perecer» ha evolucionado gradualmente hacia un mantra diferente: «Se citado o tu carrera se verá perjudicada». Las citas son la nueva moneda académica y las carreras ahora dependen firmemente de esta forma de reconocimiento académico. De hecho, la citación se ha vuelto tan importante que ha impulsado una nueva forma de engaño: redes clandestinas diseñadas para manipular citas.

Los investigadores, impulsados por el imperativo de asegurar impacto académico, recurren a la formación de anillos de citas: círculos colaborativos diseñados para aumentar artificialmente la visibilidad de su trabajo. Al hacerlo, comprometen la integridad del discurso académico y socavan los fundamentos de la búsqueda académica. La historia del moderno «cartel de citas» no es solo resultado de la presión de publicación. El surgimiento de las mega revistas también juega un papel, al igual que las revistas depredadoras y los esfuerzos institucionales por sobresalir en las clasificaciones académicas globales.

En la última década, el panorama de la investigación académica ha sido significativamente alterado por el gran número de académicos que participan en empresas científicas. El número de académicos que contribuyen a publicaciones indexadas en matemáticas se ha duplicado, por ejemplo. En respuesta a la creciente demanda de espacio en publicaciones científicas, una nueva generación de emprendedores editoriales ha aprovechado la oportunidad, y el resultado es el surgimiento de mega revistas que publican miles de artículos anualmente. Mathematics, una revista de acceso abierto producida por el Multidisciplinary Digital Publishing Institute, publicó más de 4.763 artículos en 2023, lo que representa el 9.3 por ciento de todas las publicaciones en el campo, según Web of Science. Tiene un factor de impacto de 2.4 y una medida de influencia de artículos de solo 0.37, pero, crucialmente, está indexada por Web of Science de Clarivate, Scopus de Elsevier y otros indexadores, lo que significa que sus citas cuentan hacia una variedad de métricas profesionales. (En comparación, Annals of Mathematics, publicada por la Universidad de Princeton, contenía 22 artículos el año pasado, y tiene un factor de impacto de 4.9 y una medida de influencia de artículos de 8.3.)

Las mega revistas prosperan en la era del acceso abierto, proporcionando una plataforma conveniente para investigadores ansiosos por ver su trabajo publicado y ampliamente leído. Sin barreras de pago, los artículos en esas revistas pueden compartirse (y citarse) fácilmente. La revista gana «cargos por procesamiento de artículos» (APCs) pagados por los autores de un artículo o sus instituciones, con tarifas que suelen rondar en las cuatro cifras bajas en dólares estadounidenses por artículo. Los anillos de citas, que han existido durante décadas, ahora explotan los procesos de revisión por pares rápidos y fáciles de las mega revistas para canalizar miles de referencias a sus colaboradores. El resultado es una distorsión de los índices de citas académicas y los puntajes de factor de impacto que permiten que la erudición mediocre parezca mucho más influyente de lo que es, por el precio correcto para la revista, por supuesto.

Una métrica de citas importante objetivo para los juegos de manipulación es la prestigiosa lista de «Highly Cited Researchers» de Clarivate. «De la población mundial de científicos y científicos sociales, los Investigadores Altamente Citados™ son 1 de cada 1.000», explica Clarivate. La inclusión en la lista ocurre primero a través de la actividad de citación: «Cada investigador seleccionado ha sido autor de múltiples artículos altamente citados™ que se clasifican en el 1% superior por citaciones para su(s) campo(s)». Esa lista luego se «refina utilizando análisis cualitativo y juicio experto». En general, el sello Highly Cited Researchers de Clarivate es reconocido por la comunidad investigadora como un marcador de influencia.

La lista de investigadores altamente citados también alimenta un indicador en el Ranking de Shanghái, una clasificación académica de universidades mundiales. En un intento por obtener visibilidad internacional, las instituciones no siempre se oponen a que sus miembros de la facultad encuentren atajos para el reconocimiento académico, incluso aquellos que involucran prácticas de citas dudosas. El atractivo de subir en las tablas de clasificación internacionales