Archivo de la categoría: Investigación

AI y la ciencia: lo que piensan 1.600 investigadores

Van Noorden, Richard, y Jeffrey M. Perkel. «AI and Science: What 1,600 Researchers Think». Nature 621, n.o 7980 (27 de septiembre de 2023): 672-75. https://doi.org/10.1038/d41586-023-02980-0.

Las herramientas de inteligencia artificial (IA) están cada vez más presentes en la ciencia, y muchos científicos anticipan que pronto serán centrales en la práctica de la investigación, según una encuesta de Nature a más de 1.600 investigadores de todo el mundo.

Cuando se les preguntó qué tan útiles creían que se volverían las herramientas de IA para sus campos en la próxima década, más de la mitad esperaba que las herramientas fueran «muy importantes» o «esenciales». Sin embargo, los científicos también expresaron fuertes preocupaciones sobre cómo la IA está transformando la forma en que se realiza la investigación.

El porcentaje de documentos de investigación que mencionan términos de IA ha aumentado en todas las áreas en la última década, según un análisis para este artículo realizado por Nature.

Las técnicas estadísticas de aprendizaje automático están ahora bien establecidas, y los últimos años han visto avances rápidos en la IA generativa, incluidos los modelos de lenguaje grandes (LLMs), que pueden producir salidas fluidas como texto, imágenes y código basado en los patrones en sus datos de entrenamiento. Los científicos han estado utilizando estos modelos para ayudar a resumir y escribir documentos de investigación, generar ideas y escribir código, y algunos han estado probando la IA generativa para ayudar a producir nuevas estructuras de proteínas, mejorar los pronósticos meteorológicos y sugerir diagnósticos médicos, entre muchas otras ideas.

Al centrarse primero en el aprendizaje automático, los investigadores destacaron muchas formas en que las herramientas de IA los ayudan en su trabajo. De una lista de posibles ventajas, dos tercios señalaron que la IA proporciona formas más rápidas de procesar datos, el 58% dijo que acelera cálculos que antes no eran factibles, y el 55% mencionó que ahorra tiempo y dinero a los científicos.

«La IA me ha permitido progresar en responder preguntas biológicas donde el progreso era previamente inviable», dijo Irene Kaplow, bióloga computacional en la Universidad Duke en Durham, Carolina del Norte.

Los resultados de la encuesta también revelaron preocupaciones generalizadas sobre los impactos de la IA en la ciencia. De una lista de posibles impactos negativos, el 69% de los investigadores dijo que las herramientas de IA pueden llevar a una mayor dependencia del reconocimiento de patrones sin comprensión, el 58% dijo que los resultados pueden afianzar el sesgo o la discriminación en los datos, el 55% pensó que las herramientas podrían facilitar el fraude y el 53% señaló que el uso mal considerado puede llevar a investigaciones irreproducibles.

«El principal problema es que la IA desafía nuestros estándares existentes de prueba y verdad», dijo Jeffrey Chuang, quien estudia análisis de imágenes de cáncer en el Laboratorio Jackson en Farmington, Connecticut.

Usos esenciales Para evaluar las opiniones de los investigadores activos, Nature envió por correo electrónico a más de 40,000 científicos que habían publicado documentos en los últimos 4 meses de 2022, además de invitar a los lectores del Nature Briefing a participar en la encuesta. Dado que los investigadores interesados en la IA eran mucho más propensos a responder a la invitación, los resultados no son representativos de todos los científicos. Sin embargo, los encuestados se dividieron en 3 grupos: el 48% que desarrollaba o estudiaba directamente la IA, el 30% que había usado IA para su investigación y el 22% restante que no usaba IA en su ciencia.

Entre los que usaban IA en su investigación, más de una cuarta parte sintió que las herramientas de IA se volverían «esenciales» para su campo en la próxima década, en comparación con el 4% que pensaba que las herramientas eran esenciales ahora, y otro 47% pensó que la IA sería «muy útil». A los investigadores cuyo campo de investigación ya era la IA no se les hizo esta pregunta. Los investigadores que no usan IA eran, como era de esperar, menos entusiastas. Aun así, el 9% sintió que estas técnicas se volverían «esenciales» en la próxima década, y otro 34% dijo que serían «muy útiles».

Grandes modelos de lenguaje El chatbot ChatGPT y sus primos LLM fueron las herramientas que los investigadores mencionaron más a menudo cuando se les pidió que escribieran el ejemplo más impresionante o útil de herramientas de IA en la ciencia

Cuando se les pidió que seleccionaran de una lista de posibles impactos negativos de la IA generativa, el 68% de los investigadores se preocuparon por la proliferación de desinformación, otro 68% pensaron que facilitaría el plagio y dificultaría su detección, y el 66% estaban preocupados por la introducción de errores o inexactitudes en los documentos de investigación.

Los encuestados agregaron que estaban preocupados por estudios falsificados, información falsa y la perpetuación de sesgos si las herramientas de IA para diagnósticos médicos se entrenaran con datos históricamente sesgados.

«Claramente hay un mal uso de los grandes modelos de lenguaje, inexactitud y resultados huecos pero con un tono profesional que carecen de creatividad», dijo Isabella Degen, ingeniera de software y exemprendedora que ahora está estudiando para un doctorado en el uso de IA en medicina en la Universidad de Bristol, Reino Unido. «En mi opinión, no entendemos bien dónde está la línea entre el buen uso y el mal uso».

El beneficio más claro, pensaron los investigadores, era que los LLMs ayudaban a los investigadores cuyo primer idioma no es el inglés, al ayudar a mejorar la gramática y el estilo de sus documentos de investigación, o para resumir o traducir otro trabajo. «A pesar de un pequeño número de actores malintencionados, la comunidad académica puede demostrar cómo utilizar estas herramientas para el bien», dijo Kedar Hippalgaonkar, científico de materiales en la Universidad Tecnológica de Nanyang en Singapur.

Los investigadores que usan regularmente LLMs en el trabajo todavía son una minoría, incluso entre el grupo interesado que respondió a la encuesta de Nature. Un 28% de los que estudiaron IA dijeron que usaban productos de IA generativa como LLMs todos los días o más de una vez a la semana, un 13% de los que solo usan IA lo dijeron, y solo un 1% entre otros, aunque muchos al menos habían probado las herramientas.

Además, el uso más popular entre todos los grupos fue para la diversión creativa no relacionada con la investigación (un encuestado usó ChatGPT para sugerir recetas); una proporción menor usó las herramientas para escribir código, idear ideas de investigación y ayudar a escribir documentos de investigación.

Algunos científicos no quedaron impresionados por los resultados de los LLMs. «Siento que ChatGPT ha copiado todos los malos hábitos de escritura de los humanos: usando muchas palabras para decir muy poco», escribió un investigador que usa el LLM para ayudar a editar copias de documentos. Aunque algunos estaban emocionados por el potencial de los LLMs para resumir datos en narrativas, otros tuvieron una reacción negativa. «Si usamos IA para leer y escribir artículos, la ciencia pronto pasará de ser ‘para humanos por humanos’ a ‘para máquinas por máquinas'», escribió Johannes Niskanen, un físico de la Universidad de Turku en Finlandia.



La IA generativa frente a la publicación académica

«Hanging in the balance: Generative AI versus scholarly publishing». Accedido 24 de abril de 2024. https://spie.org/news/photonics-focus/janfeb-2024/hanging-in-the-balance#_=

Desde la invención de la imprenta por Gutenberg en 1454, el sector editorial ha enfrentado desafíos relacionados con la alfabetización, el plagio, la censura de la información y el acceso a la misma. El lanzamiento de ChatGPT-3 en noviembre de 2022 marcó un hito, ya que este modelo de lenguaje generativo ha revolucionado la capacidad de generación de ideas, lo que ha generado tanto entusiasmo como preocupación en la comunidad académica.

Uno de los aspectos más destacados del debate es la creatividad de los modelos de lenguaje generativo, que pueden generar textos e imágenes. Aunque su capacidad para inventar referencias puede ser un problema, estos modelos son útiles para la generación de nuevas ideas y para identificar lagunas en la investigación existente. Sin embargo, surge la pregunta sobre la atribución de autoría, ya que los modelos generativos no pueden ser considerados como autores de estudios científicos, según el Consejo de Ética en Publicación (COPE).

En cuanto a la revisión por pares, la falta de revisores cualificados y la sobrecarga de trabajo en los editores han llevado a considerar el uso de AI para agilizar el proceso. Aunque existen preocupaciones sobre la confidencialidad y el sesgo en los resultados generados por los modelos de lenguaje generativo, estos también pueden ser herramientas útiles para la revisión de literatura y la identificación de trabajos relevantes en un área de investigación.

Otro aspecto a considerar es el fraude en la publicación académica, que ha aumentado con la capacidad de los modelos de lenguaje generativo para producir textos con una calidad gramatical aparentemente perfecta. Sin embargo, la responsabilidad sigue recayendo en los autores humanos, quienes deben garantizar la integridad ética de sus investigaciones.

A pesar de estos desafíos, los modelos de lenguaje generativo también ofrecen oportunidades para hacer que la publicación académica sea más accesible para personas cuyo idioma nativo no es el inglés. Estas herramientas pueden ayudar a superar barreras lingüísticas y permitir que los investigadores se centren en la ciencia en lugar de en la perfección gramatical en sus manuscritos.

En última instancia, el debate sobre el papel de la AI generativa en la publicación académica aún está en curso. A medida que la tecnología avanza, es crucial abordar sus desafíos éticos y técnicos para garantizar que beneficie a la comunidad académica en su conjunto.

Inteligencia Artificial Generativa y Publicación Académica

Ahari, Juni. «Generative AI and Scholarly Publishing». Ithaka S+R (blog), 23 de abril de 2024. https://sr.ithaka.org/blog/generative-ai-and-scholarly-publishing/.

Durante los últimos años, Ithaka S+R ha llevado a cabo varios estudios importantes sobre el panorama de la publicación académica durante un período de cambio tecnológico rápido. No hay mejor ejemplo de lo rápido y radical que es este ritmo que las herramientas de inteligencia artificial generativa, que han pasado de los márgenes a un punto focal de la publicación académica en poco más de un año.

La primavera pasada, se llevaron a canbo entrevistas con editores, bibliotecarios, defensores, analistas, financiadores y responsables políticos a medida que los horizontes de posibilidad y riesgo planteados por la inteligencia artificial generativa se hacían evidentes. Se publicó, » The Second Digital Transformation of Scholarly Publishing«, a principios de este año.

En los meses intermedios, el alcance de la inteligencia artificial generativa en el ciclo de vida de la publicación académica ha crecido dramáticamente. Las herramientas de descubrimiento mejoradas están proporcionando formas más eficientes de adaptar la búsqueda y sintetizar cuerpos enteros de literatura para investigadores y lectores. Mientras tanto, las herramientas en el detección para automatizar aspectos de la revisión por pares, facilitar la presentación de artículos e identificar el fraude en la investigación ya están en uso o en la cima de los pipelines de desarrollo de productos. A medida que el panorama de productos comienza a madurar, y a medida que los casos de uso de los investigadores se vuelven más discernibles, se disponen de datos para respaldar una reflexión más profunda sobre cómo la inteligencia artificial generativa afectará a la comunicación y prácticas de publicación académica que no existían en este momento el año pasado.

Las cambiantes y rápidas necesidades y expectativas de los usuarios, el potencial de la inteligencia artificial generativa para mitigar desafíos sistémicos obstinados en la industria de la publicación académica, y la conciencia de los riesgos que plantea la inteligencia artificial generativa para el conocimiento experto demandan que encontremos tiempo para una reflexión profunda sobre lo que significa la inteligencia artificial generativa para la publicación académica como sector y su valor como componente de la infraestructura compartida que apoya la investigación científica y académica y las comunicaciones.

Para ayudar, Ithaka S+R está lanzando un nuevo estudio sobre las implicaciones estratégicas de la inteligencia artificial generativa para la publicación académica, con el apoyo de STM Solutions y un grupo de sus miembros. Las siguientes preguntas clave guiarán nuestra investigación:

¿La inteligencia artificial generativa se integrará en los objetivos, procesos e infraestructuras existentes para la publicación académica? ¿O representa esta una tecnología transformadora que requerirá una reestructuración fundamental de esos objetivos, procesos e infraestructuras? ¿Podría la inteligencia artificial generativa interpretar efectivamente nuestras suposiciones actuales sobre el papel y propósito de los editores obsoletas? ¿Qué nuevos roles podrían desempeñar los editores en un entorno de información radicalmente transformado? ¿Qué transformaciones potenciales deberían alentar los editores y qué riesgos requieren respuestas coordinadas inmediatas mientras la tecnología aún está echando raíces en el sector? ¿Qué tipos nuevos de infraestructura técnica y/o social compartida son necesarios para apoyar la adopción ética de la inteligencia artificial generativa en apoyo de los objetivos de la investigación y la publicación académica? ¿Qué sistemas y estructuras serán necesarios para equilibrar las necesidades de autores, lectores, titulares de derechos, editores y agregadores? ¿Qué sigue?

Ithaka S+R llevará a cabo entrevistas con tomadores de decisiones del sector editorial y otros con experiencia en el tema de la inteligencia artificial generativa, sobre las oportunidades y riesgos. Los hallazgos de nuestra investigación se compartirán a través de un informe temático y un seminario web público este verano. Este proyecto es parte de un conjunto de investigaciones que estamos llevando a cabo para explorar los impactos de la inteligencia artificial generativa en las prácticas de investigación y comunicación académica.

CANGURU: directrices éticas y de divulgación para el uso de inteligencia artificial generativa en la investigación académica

Cacciamani, Giovanni, Michael Eppler, Conner Ganjavi, Asli Pekcan, Brett Biedermann, Gary Collins, y Inderbir Gill. «Development of the ChatGPT and generative artificial intelligence natural large language models for accountable reporting and use (cangaru) guidelines», 27 de junio de 2023. https://doi.org/10.17605/OSF.IO/9Y5NW.

Ver guidelines

CANGARU es una iniciativa interdisciplinaria que busca establecer estándares éticos y de divulgación para el uso de inteligencia artificial generativa y modelos de lenguaje natural en la investigación académica. Su objetivo es promover el uso responsable de estas tecnologías mediante la colaboración con instituciones y desarrollar directrices coherentes y universales. Se enfoca en crear criterios para prácticas éticas y transparentes en el ámbito académico.

La iniciativa ChatGPT, Inteligencia Artificial Generativa y Modelos de Lenguaje Natural para el Reporte y Uso Responsable (CANGARU) con el objetivo de establecer un consenso interdisciplinario sobre el uso responsable, divulgación y guía para el reporte del uso de GAI/GPTs/LLM en el ámbito académico. Trabajando colaborativamente con individuos, organizaciones regulatorias académicas y editoriales, se mitigará de manera efectiva la posible confusión o guías conflictivas que podrían surgir cuando varios grupos trabajan independientemente en la misma tarea. A su vez, esto asegurará que cualquier recomendación sea coherente, completa y universalmente aplicable, promoviendo el uso responsable de esta poderosa tecnología.

El objetivo general de las directrices CANGARU es establecer prácticas recomendadas comúnmente compartidas y transdisciplinares para el uso de GAI/GPTs/LLM en el ámbito académico de la siguiente manera:

a. La Lista de Criterios ‘NO HACER’: Será una guía integral que tiene como objetivo asegurar el uso ético y adecuado de GAI/GPTs/LLM en la investigación académica. Cubrirá cada paso del proceso académico, desde (pero no limitado a) la generación de hipótesis de investigación, la conducción del estudio y el análisis de datos (incluida la codificación), la creación de imágenes, la interpretación de hallazgos y la redacción, revisión, refinamiento y edición del manuscrito. Esta lista servirá como un recurso valioso para los investigadores, proporcionando orientación sobre qué evitar a lo largo de las diferentes etapas del proceso de investigación. Al identificar y resaltar posibles obstáculos y preocupaciones éticas, la Lista de Criterios ‘NO HACER’ ayudará a los investigadores a navegar el uso de GAI/GPTs/LLM de manera responsable y con integridad.

b. La Lista de Criterios de Divulgación: Proporcionará orientación para que los investigadores divulguen de manera transparente su uso de GAI/GPTs/LLM en la investigación académica, mejorando la transparencia, la responsabilidad y permitiendo una mejor evaluación de los hallazgos de investigación. Se enfatiza la importancia de qué y cómo divulgar, fomentando la responsabilidad y abordando los posibles riesgos y limitaciones asociados con esta tecnología.

c. La Lista de Criterios de Reporte: Proporcionará una lista de verificación de recomendaciones para garantizar el reporte completo y transparente de GAI/GPTs/LLM cuando se utilicen como intervenciones en estudios científicos. Considerará todos los aspectos importantes que deben reportarse en el manuscrito científico para mejorar la transparencia, mejorar la reproducibilidad, estandarizar las prácticas de reporte, reducir la interpretación errónea, apoyar los procesos de revisión por pares y editoriales, y facilitar la síntesis de investigación y la traducción del conocimiento.

¿Deben los investigadores utilizar la IA para escribir artículos? Un grupo aboga por normas comunitarias

Else, H. «Should Researchers Use AI to Write Papers? Group Aims for Community-Driven Standards». Science, accedido 22 de abril de 2024. https://www.science.org/content/article/should-researchers-use-ai-write-papers-group-aims-community-driven-standards.

En los últimos meses ha surgido un intenso debate sobre cuándo y cómo deberían los programas de inteligencia artificial (IA) generadora de texto, como ChatGPT, ayudar a redactar artículos de investigación. Un grupo de 4000 investigadores de diversas disciplinas y países está trabajando en directrices que podrían ser adoptadas ampliamente en la publicación académica. Esta iniciativa, conocida como CANGARU, busca reemplazar el paisaje fragmentado de las directrices actuales con un conjunto único de estándares que representen el consenso de la comunidad investigadora.

CANGARU Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines es una colaboración entre investigadores y editoriales como Elsevier, Springer Nature y Wiley, así como representantes de revistas como eLife, Cell y The BMJ, junto con el Comité de Ética de Publicación. El objetivo es lanzar un conjunto final de directrices para agosto, actualizándolas anualmente debido a la rápida evolución de esta tecnología. Estas directrices incluirán formas en las que los autores no deben utilizar los grandes modelos de lenguaje (LLMs) que alimentan a los chatbots, así como cómo deben revelar otros usos.

Si bien algunos argumentan que las herramientas de IA pueden ayudar a redactar manuscritos de manera responsable, otros temen que los defraudadores científicos las utilicen para publicar trabajos falsos convincentes rápidamente. La propensión de los LLMs a inventar cosas, combinada con su relativa fluidez en la escritura y un sistema de revisión por pares sobrecargado, representa una grave amenaza para la investigación y la publicación científica, según Tanya De Villiers-Botha, filósofa de la Universidad de Stellenbosch.

Algunas revistas y organismos ya han establecido reglas sobre cómo los científicos pueden usar herramientas de IA generativa en su trabajo, aunque el nivel de orientación varía. CANGARU está llevando a cabo una revisión sistemática de la literatura relevante para informar las directrices de IA. Sin embargo, algunos investigadores temen que la iniciativa no avance lo suficientemente rápido, dado el rápido progreso de la IA generativa.

El número de investigadores que utilizan estas herramientas en sus escritos parece estar aumentando, y se han identificado casos de uso no divulgado e ilícito de ChatGPT. Algunos investigadores han buscado pistas más sutiles en el texto generado por LLM. A medida que se establezcan las directrices de IA, el próximo paso será garantizar que los autores las cumplan, lo que requerirá la colaboración de las editoriales y un riguroso proceso de revisión por pares.

Prácticas editoriales depredadoras y cuestionables: cómo reconocerlas y evitarlas

Braak, Pascal, Dirk van Gorp, Chantal Hukkelhoven, y Tessa de Roo. «Predatory and Questionable Publishing Practices: How to Recognise and Avoid Them», 20 de marzo de 2024. https://doi.org/10.5281/zenodo.10688081

PDF

Esta guía, escrita por especialistas en acceso abierto en universidades de los Países Bajos, brinda información y consejos prácticos para los autores sobre cómo evitar revistas cuestionables y depredadoras.

El papel de los editores es crucial en la producción y difusión de la investigación académica. Facilitan la revisión por pares, brindan apoyo editorial, manejan la producción y distribución, y garantizan la disponibilidad de las publicaciones científicas.

Publicar con un editor de buena reputación aumenta la visibilidad de los investigadores y su trabajo, y puede ayudar a impulsar el impacto de los resultados de la investigación. Hay miles de editores (de acceso abierto) confiables en todo el mundo y en cada disciplina académica que ofrecen servicios de publicación de alta calidad guiados por las mejores prácticas y estándares internacionales.

Es beneficioso para los académicos publicar en una revista, libro o serie de conferencias autoritaria y de buena calidad producida por un editor de buena reputación en su campo de investigación. Sin embargo, hay una creciente preocupación sobre el aumento del número de editores y revistas que llevan a cabo prácticas de publicación presuntamente cuestionables, como la revisión por pares de baja calidad y/o la adquisición agresiva, y los editores depredadores fraudulentos.

Los editores depredadores pueden perjudicar a los académicos y a sus instituciones financieramente y en cuanto a la reputación al cobrar una tarifa por ninguna revisión por pares o por ningún servicio de publicación en absoluto. Los editores depredadores y las prácticas de publicación cuestionables tienen un efecto negativo en la credibilidad del registro académico publicado y en la comunidad académica en su conjunto.

¿Cómo se pueden reconocer y evitar estas prácticas y editores? ¿Qué sucede si se ha enviado un artículo a, o se encuentra en un proceso de publicación con, un editor y algo sale mal o parece inexacto?

Características deseables de los identificadores persistentes

Chodacki, John, y Todd Carpenter. «Desirable Characteristics of Persistent Identifiers». Upstream, 19 de marzo de 2024. https://upstream.force11.org/desirable-characteristics-for-persistent-identifiers/.

En un panorama digital en rápida evolución, los identificadores persistentes (PID) se erigen en componentes cruciales para el avance y la difusión de la investigación, apuntalando la eficiencia, la transparencia y la interconectividad de la comunicación académica. Su aplicación estratégica, guiada por principios y prácticas reconocidos internacionalmente, es esencial para fomentar un entorno de investigación abierto y colaborativo.

Los identificadores persistentes (PIDs) en la investigación académica han recibido una creciente atención, particularmente en el contexto de la ciencia abierta. Varios principios, como los Principios FAIR (Encontrable, Accesible, Interoperable y Reutilizable) y los Principios de Infraestructura Académica Abierta (POSI), destacan la importancia de los PIDs para mejorar la eficiencia y transparencia de la comunicación académica.

Open Science Toolkit, publicado en 2022 por la UNESCO como parte de la fase de aplicación de su Recommendation on Open Science, incluye una guía sobre Bolstering Open Science Infrastructure for All, que detalla lo que la UNESCO considera «factores [que] deben tener en cuenta quienes desarrollan, financian y/o utilizan infraestructuras de ciencia abierta». Entre ellos figuran:

● Transparencia de costes y beneficios;
● Interoperabilidad para potenciar la reutilización;
● Cocreación cooperativa;
● Atención y beneficios compartidos; y
● Armonización con la política de ciencia abierta y supervisión.

Es importante señalar que en el apartado «Infraestructura básica», la UNESCO escribe: «Debe prestarse la debida atención a los identificadores únicos persistentes de los objetos digitales», dejando claro que consideran los PID una parte crucial de la infraestructura más amplia de la ciencia abierta a la que se aplican las consideraciones anteriores.

Los Principios de la Infraestructura Académica Abierta (POSI), desarrollado originalmente en 2015 y actualizado más recientemente en 2023, «ofrece un conjunto de directrices por las que las organizaciones e iniciativas de infraestructura académica abierta que apoyan a la comunidad investigadora pueden ser dirigidas y sostenidas». Algunas de las consideraciones que POSI enumera en el apartado de gobernanza, en particular que la infraestructura abierta debe tener, son las más relevantes para nuestra orientación sobre los PID:

● Cobertura en toda la empresa académica, siendo inclusiva para una amplia gama de disciplinas académicas, geografías, instituciones y actores;
● Gobernada por las partes interesadas, ya que esto «genera confianza en que la organización tomará decisiones impulsadas por el consenso de la comunidad y un equilibrio de intereses»;
● Gobernanza transparente, ya que esto ayuda a construir y mantener la confianza en la comunidad; e
● Incentivos para cumplir la misión, en particular que «las organizaciones y los servicios revisen periódicamente el apoyo de la comunidad y la necesidad de sus actividades».

Scholarly Communication Infrastructure Guide,, publicada por el Grupo de Trabajo de Infraestructura Compartida de HELIOS en 2023, se basa en la visión de la UNESCO de una infraestructura científica abierta. Esta guía hace hincapié en la transparencia, la colaboración, las capacidades técnicas, la gobernanza, el cumplimiento de las normas de acceso público y la puntualidad. Aunque no presiona a favor de proveedores o soluciones concretos, guía a los responsables institucionales a través de las preguntas importantes que deben plantearse a la hora de decidir comprar, construir o asociarse en infraestructuras académicas. Estas mismas preguntas podrían adaptarse y plantearse a la hora de decidir si adoptar determinados PID o servicios relacionados. Por ejemplo:

● ¿Son transparentes y asequibles los precios a corto plazo y los costes a largo plazo?
● ¿Existen oportunidades de asociación con proveedores de código abierto o sin ánimo de lucro?
● ¿Se basa la infraestructura en formatos y protocolos estándar e interoperables?
● ¿Cuál es el plan de sostenibilidad de la organización u organizaciones rectoras que apoyan la infraestructura?
● ¿Pueden los usuarios proporcionar orientación sobre su dirección, usabilidad y desarrollo?
● ¿La infraestructura es propiedad y/o está gobernada por miembros de la comunidad académica?
● ¿Permitirá la infraestructura cumplir los requisitos políticos de los organismos de financiación?

Otra fuente de orientación sobre las características y principios deseables para los PID es el artículo fundacional de 2017 “Identifiers for the 21st Century,», que hace hincapié en varios criterios clave para la infraestructura de EPI:

● Construida para la conexión y la expansión
● Promover la interoperabilidad
● Llenar las lagunas específicas de la comunicación de la investigación
● Garantizar la disponibilidad abierta de los metadatos
● Establecer la fiabilidad de los identificadores persistentes
● Hacer hincapié en la propiedad y la gobernanza de la comunidad
● Fomentar la sostenibilidad de la organización

La implementación estratégica de PIDs, alineada con estos principios y prácticas, es esencial para fomentar un entorno de investigación abierto y colaborativo. Algunas características deseables de la infraestructura de PIDs incluyen la disponibilidad abierta de metadatos básicos, el uso de servicios de resolución establecidos, la documentación de políticas de identificación, servicios de monitoreo y reporte, facilidad de asignación y curación de metadatos, estructuras estandarizadas y extensibilidad, y gobernanza comunitaria. Estas características, combinadas con la adopción de principios globales de ciencia abierta y una colaboración entre la comunidad académica, financiadores y responsables de políticas, pueden garantizar que los PIDs contribuyan a un paisaje académico más inclusivo y transparente.

50 aspectos esenciales de la comunicación científica

Bertemes, Jean Paul, Haan, Serge and Hans, Dirk. 50 Essentials on Science Communication, Berlin, Boston: De Gruyter Mouton, 2024. https://www.degruyter.com/document/doi/10.1515/9783110763577/html?lang=en

Descargar

La comunicación científica es cada vez más importante. Las instituciones de investigación, los científicos y los comunicadores científicos quieren comprometerse con la sociedad, compartir sus conocimientos y generar confianza. Al mismo tiempo, se trata de competir por los fondos de investigación y el personal de alto nivel. ¿Cómo hacerlo bien y qué hay que tener en cuenta a la hora de desarrollar una estrategia de comunicación?

Este libro, práctico y ameno, ofrece los fundamentos de la comunicación científica orientada a objetivos. Está dirigido a científicos en formación y a cualquiera que quiera dar sus primeros pasos en el campo de la comunicación científica. Autores internacionales con experiencia en este campo comparten sus reflexiones esenciales sobre aspectos importantes de la comunicación científica contemporánea.

Guía para la regulación del uso de Inteligencia Artificial en revistas científico-académicas de ciencias sociales, en procesos de arbitraje y para reportar su uso en textos científicos

Penabad-Camacho, Liana, Maria Morera, y María Amalia Penabad-Camacho. «Guía para la regulación del uso de Inteligencia Artificial en revistas científico-académicas de ciencias sociales, en procesos de arbitraje y para reportar su uso en textos científicos», 16 de marzo de 2023. https://repositorio.una.ac.cr/handle/11056/27431.

Este documento introduce el concepto de Inteligencia Artificial (IA) y su impacto en la ciencia, proponiendo una reestructuración de los métodos tradicionales de investigación y publicación. Destaca la importancia de la transparencia en el uso de la IA y su congruencia con los estándares de comunicación científica. El objetivo principal es proporcionar orientación para el reporte del uso de la IA en la publicación científica, dirigido a editores, revisores y autores.

Se incluyen definiciones clave, como la de «prompts» y «prompt net», así como diagramas para conceptualizar su uso. La guía se divide en tres partes: una dirigida a editores y equipos editoriales, otra a revisores y la tercera a autores, ofreciendo recomendaciones específicas para cada uno de estos roles en relación con el uso ético y transparente de la IA en el proceso de comunicación del conocimiento científico.

Se enfatiza que el objetivo final del uso de la IA debe ser el bien común y la mejora de la calidad de vida, destacando la importancia de mitigar sesgos y desinformación. Además, se reconoce que la IA es un fenómeno en constante evolución, por lo que se sugiere la necesidad de futuras actualizaciones de la guía y sus conceptos para adaptarse a los avances tecnológicos y científicos.

El impacto de las imágenes y videos generados por IA en la investigación científica: ¿Beneficio o Perjuicio?

Wong, Carissa. «AI-Generated Images and Video Are Here: How Could They Shape Research?» Nature, 7 de marzo de 2024. https://doi.org/10.1038/d41586-024-00659-8.

Así como muchos investigadores están utilizando ChatGPT para transformar el proceso de escritura científica, otros están utilizando generadores de imágenes de IA como Midjourney, Stable Diffusion y DALL-E para reducir el tiempo y el esfuerzo necesarios para producir diagramas e ilustraciones. Sin embargo, los investigadores advierten que estas herramientas de IA podrían impulsar un aumento en los datos falsos y las imágenes científicas inexactas. Nature examina cómo los investigadores están utilizando estas herramientas y lo que su creciente popularidad podría significar para la ciencia.

¿Cómo funcionan las herramientas de texto a imagen? Muchas herramientas de IA de texto a imagen, como Midjourney y DALL-E, se basan en algoritmos de aprendizaje automático llamados modelos de difusión que están entrenados para reconocer los vínculos entre millones de imágenes extraídas de Internet y descripciones de texto de esas imágenes. Estos modelos han avanzado en los últimos años gracias a mejoras en hardware y la disponibilidad de grandes conjuntos de datos para el entrenamiento. Después del entrenamiento, los modelos de difusión pueden utilizar indicaciones de texto para generar nuevas imágenes.

¿Para qué los están utilizando los investigadores? Algunos investigadores ya están utilizando imágenes generadas por IA para ilustrar métodos en artículos científicos. Otros los están utilizando para promocionar artículos en publicaciones en redes sociales o para mejorar las diapositivas de presentaciones. «Están utilizando herramientas como DALL-E 3 para generar imágenes llamativas que enmarcan conceptos de investigación», dice el investigador de IA Juan Rodríguez de ServiceNow Research en Montreal, Canadá. «Di una charla el jueves pasado sobre mi trabajo y utilicé DALL-E 3 para generar imágenes atractivas para mantener la atención de las personas», dice.

También están aumentando las herramientas de texto a video, pero parecen ser menos utilizadas por investigadores que no están desarrollando o estudiando activamente estas herramientas, dice Rodríguez. Sin embargo, esto podría cambiar pronto. El mes pasado, OpenAI, creador de ChatGPT en San Francisco, California, lanzó videoclips generados por una herramienta de texto a video llamada Sora. «Con los experimentos que vimos con Sora, parece que su método es mucho más robusto para obtener resultados rápidamente», dice Rodríguez. «Estamos en una etapa temprana en términos de texto a video, pero supongo que este año descubriremos cómo se desarrolla esto», agrega.

¿Cuáles son los beneficios de utilizar estas herramientas? Las herramientas de IA generativas pueden reducir el tiempo necesario para producir imágenes o figuras para artículos, carteles de conferencias o presentaciones. Convencionalmente, los investigadores utilizan una variedad de herramientas no de IA, como PowerPoint, BioRender e Inkscape. «Si realmente sabes cómo usar estas herramientas, puedes hacer figuras realmente impresionantes, pero lleva tiempo», dice Rodríguez.

Las herramientas de IA también pueden mejorar la calidad de las imágenes para los investigadores que encuentran difícil traducir conceptos científicos en ayudas visuales, dice Rodríguez. Con la IA generativa, los investigadores aún crean la idea principal de la imagen, pero pueden usar la IA para refinarla, dice.

¿Cuáles son los riesgos? Actualmente, las herramientas de IA pueden producir obras de arte convincentes y algunas ilustraciones, pero aún no pueden generar figuras científicas complejas con anotaciones de texto. «No obtienen el texto correcto: a veces el texto es demasiado pequeño, mucho más grande o está girado», dice Rodríguez. El tipo de problemas que pueden surgir quedó claro en un artículo publicado en Frontiers in Cell and Developmental Biology a mediados de febrero, en el que los investigadores utilizaron Midjourney para representar los órganos reproductores de una rata. El resultado, que pasó la revisión por pares, fue una caricatura de un roedor con genitales enormes y anotados con garabatos.

Existe también la posibilidad de que estas herramientas faciliten la producción de datos u observaciones falsas por parte de estafadores científicos, ya que no hay un método robusto para detectar tales imágenes y videos generados por IA. Rodriguez expresa preocupación por el potencial impacto de «una inundación de datos falsos y sintéticamente generados».

Algunos campos han mostrado una fuerte resistencia a la inclusión de imágenes generadas por IA en publicaciones científicas. Una encuesta realizada por el paleoartista Henry Sharpe reveló que solo uno de cada cuatro paleontólogos profesionales estaba a favor de permitir la inclusión de imágenes generadas por IA en publicaciones científicas. Se argumenta que estas imágenes pueden inducir a error tanto a científicos como al público, ya que simplemente copian elementos existentes sin la capacidad de interpretar textos científicos. Además, los procesos iterativos de reconstrucción de formas de vida antiguas, realizados en consulta con paleontólogos, revelan características anatómicas plausibles que se pierden al usar IA.

En cuanto a las políticas de las revistas científicas, Springer Nature ha prohibido el uso de imágenes, videos e ilustraciones generados por IA en la mayoría de los artículos que no tratan específicamente sobre IA. Journals de la familia Science no permiten el uso de texto, figuras o imágenes generadas por IA sin el permiso explícito de los editores, a menos que el artículo se centre en IA o aprendizaje automático. Por otro lado, PLOS ONE permite el uso de herramientas de IA, pero los investigadores deben declarar la herramienta utilizada, cómo la utilizaron y cómo verificaron la calidad del contenido generado.