Archivo de la etiqueta: Investigación

Guía necesaria para el uso de la inteligencia artificial en la detección de conductas impropias en las presentaciones de artículos a revistas científicas

Hosseini, Mohammad, y David B Resnik. «Guidance Needed for Using Artificial Intelligence to Screen Journal Submissions for Misconduct». Research Ethics, 11 de mayo de 2024, 17470161241254052. https://doi.org/10.1177/17470161241254052.

Las revistas y editoriales están utilizando cada vez más la inteligencia artificial (IA) para examinar las presentaciones en busca de posibles conductas impropias, incluido el plagio y la manipulación de datos o imágenes.

Si bien el uso de la IA puede mejorar la integridad de los manuscritos publicados, también puede aumentar el riesgo de acusaciones falsas/no fundamentadas. Las ambigüedades relacionadas con las responsabilidades de las revistas y editoriales con respecto a la equidad y transparencia también plantean preocupaciones éticas.

En el presente artículo, se proporciona la siguiente guía:

  1. Todos los casos de conducta impropia sospechosa identificados por herramientas de IA deben ser revisados cuidadosamente por humanos para verificar la precisión y garantizar la responsabilidad;

2. Las revistas/editoriales que utilizan herramientas de IA para detectar conductas impropias deben utilizar solo herramientas bien probadas y confiables, permanecer vigilantes con respecto a formas de conducta impropia que no pueden ser detectadas por estas herramientas y mantenerse al tanto de los avances en tecnología;

3. Las revistas/editoriales deben informar a los autores sobre irregularidades identificadas por herramientas de IA y darles la oportunidad de responder antes de enviar acusaciones a sus instituciones de acuerdo con las pautas del Comité de Ética de Publicaciones;

4. Las revistas/editoriales que utilizan herramientas de IA para detectar conductas impropias deben examinar todas las presentaciones relevantes y no solo presentaciones seleccionadas al azar/intencionalmente; y

5. Las revistas deben informar a los autores sobre su definición de conducta impropia, su uso de herramientas de IA para detectar conductas impropias y sus políticas y procedimientos para responder a casos sospechosos de conducta impropia.

Declaración de Barcelona. Los investigadores necesitan bases de datos bibliográficas «abiertas»

Barcelona Declaration on Open Research Information

Español

Los investigadores necesitan bases de datos bibliográficas «abiertas», según una nueva declaración Las principales plataformas, como Web of Science, ampliamente utilizadas para generar métricas y evaluar a los investigadores, están protegidas por derechos de propiedad intelectual.


Cuando las universidades están decidiendo a quién contratar y promocionar, o cuando las organizaciones de financiamiento están seleccionando proyectos para financiar, es muy probable que estén consultando más que solo los materiales de solicitud. Muchas organizaciones confían en bases de datos que recopilan información sobre publicaciones, incluidos autores, afiliaciones, citas y fuentes de financiamiento, para crear métricas destinadas a cuantificar la productividad de un investigador y la calidad de su trabajo.

Algunas de las bases de datos más conocidas, como Web of Science y Scopus, son propietarias y ofrecen datos y servicios de acceso pago que respaldan estas y otras métricas, incluidos los rankings universitarios y los factores de impacto de las revistas. Pero en una declaración publicada hoy, más de 30 organizaciones de investigación y financiamiento llaman a la comunidad a comprometerse con plataformas que, en cambio, sean gratuitas para todos, más transparentes sobre sus métodos y sin restricciones sobre cómo se puede utilizar los datos.

La Declaración de Barcelona sobre la Información de Investigación Abierta afirma que «en un momento en que la toma de decisiones en ciencia está cada vez más guiada por indicadores y análisis, abordar los problemas de la información de investigación cerrada debe ser una prioridad absoluta». Los firmantes hasta ahora incluyen a financiadores como la Fundación Bill y Melinda Gates y la Agencia Nacional de Investigación de Francia, así como a más de una docena de instituciones académicas.

La Universidad de la Sorbona, que canceló su suscripción a Web of Science el año pasado y cambió a una plataforma más nueva y abierta llamada OpenAlex, dijo en un comunicado que “al firmar la Declaración, queremos demostrar que no solo este movimiento hacia la información de investigación abierta debería ser un objetivo, sino que también se puede lograr”. El cambio puede ayudar a remediar el enfoque de las bases de datos existentes en las revistas en inglés, dicen los defensores. También podría ayudar a mejorar “la circulación del conocimiento científico y local producido en diferentes idiomas, formatos y en diferentes regiones geográficas”, dice otro signatario, el Consejo Latinoamericano de Ciencias Sociales a través del Foro Latinoamericano para la Evaluación Científica.

Jason Portenoy, ingeniero de datos senior en OurResearch, reconoce esta necesidad de aporte de la comunidad, diciendo que es comprensible que las instituciones puedan dudar en volver a hacer el trabajo. “Pero la diferencia es que con OpenAlex, está sucediendo de manera abierta”, dice. Cualquier brecha en la calidad de los datos se está cerrando rápidamente, agrega Jason Priem, CEO de OurResearch. “OpenAlex está evolucionando muy rápidamente, y a menudo los problemas descubiertos por nuestra comunidad se solucionan en unos pocos meses”. Cuando uno de los coordinadores de la declaración, Ludo Waltman, director científico del Centro de Estudios de Ciencia y Tecnología en la Universidad de Leiden, y colegas recientemente usaron OpenAlex para clasificar más de 1400 universidades en todo el mundo, concluyeron que, aunque necesita mejorar, el enfoque produjo “datos de calidad sorprendentemente buenos”.

Daniel Hook, CEO de Digital Science, que opera la base de datos propietaria Dimensions, acoge esta idea. (Dimensions ya ofrece una versión gratuita para uso no comercial, aunque los usuarios deben suscribirse para acceder a todas las funciones). Sin embargo, Hook dice que tal transición llevará tiempo. Las bases de datos propietarias necesitan recuperar los costos de establecer, mejorar y mantener conjuntos de datos tan grandes, un desafío que los equivalentes abiertos como OpenAlex también podrían enfrentar a largo plazo.

La declaración es un «excelente desarrollo», dice Elizabeth Gadd, experta en comunicaciones académicas y jefa de cultura e evaluación de investigación e innovación en la Universidad de Loughborough, que no estuvo involucrada en su preparación. “Muchas organizaciones han hecho compromisos públicos con prácticas de investigación abierta pero continúan utilizando fuentes de datos bibliográficos cerradas y comerciales para análisis de investigación”. El anuncio debería “estimular a una gama más amplia de organizaciones a ‘poner su dinero donde está su boca’”.

Con ese fin, los partidarios de la declaración esperan establecer una Coalición para la Información de Investigación Abierta para planificar los próximos pasos, dice la coordinadora Bianca Kramer, experta en comunicaciones académicas de la consultora Sesame Open Science. “Queremos facilitar que las organizaciones trabajen hacia esa transición, entre otras cosas, beneficiándose de la experiencia de los demás y explorando la acción colectiva”.

COMPROMISOS


1 – Haremos que la apertura sea la norma para la información de investigación que utilizamos y producimos

  • La apertura será la norma para la información sobre investigación que utilizamos, por ejemplo, para evaluar a investigadores e instituciones, apoyar la toma de decisiones estratégicas y encontrar resultados de investigación relevantes.
  • La apertura será la norma para la información de investigación que produzcamos, por ejemplo, la información sobre nuestras actividades y resultados, con excepción de la información cuya apertura sería inapropiada (‘tan abierta como sea posible y tan
    cerrada como sea necesario’


2. – Trabajaremos con servicios y sistemas que apoyen y hagan posible
la información abierta sobre investigación

  • En cuanto a los servicios y plataformas de publicación, requeriremos que la información de investigación generada en los procesos de publicación (por ejemplo, metadatos de artículos de investigación y otros resultados) esté disponible de forma abierta a través de infraestructuras académicas abiertas, utilizando protocolos e identificadores estándar cuando estén disponibles.
  • En el caso de los sistemas y plataformas para la gestión interna de la información de investigación (por ejemplo, los actuales sistemas de información de investigación), requeriremos que toda la información de investigación pertinente pueda exportarse y hacerse abierta, utilizando protocolos e identificadores estándares cuando estén disponibles.


3. Apoyaremos la sostenibilidad de las infraestructuras para la información abierta sobre investigación

  • Asumimos la responsabilidad de apoyar infraestructuras para la información abierta sobre investigación, por ejemplo participando en la creación de comunidades y en la gobernanza de las mismas y aportando contribuciones justas y equitativas a la estabilidad financiera y al desarrollo de estas infraestructuras.
  • Esperamos que las infraestructuras que apoyamos apliquen buenas prácticas
    de gobernanza comunitaria y sostenibilidad (por ejemplo, los Principios de la
    Infraestructura Académica Abierta).


4. Apoyaremos actuaciones colectivas para acelerar la transición hacia la apertura de la información sobre investigación

  • Reconocemos la importancia de compartir experiencias y coordinar acciones para promover en todo el sistema la transición de cerrada a abierta de la información de investigación.
  • Para facilitarlo, apoyamos la creación de una Coalición para la Información
    Abierta sobre Investigación y el refuerzo de la colaboración con otras iniciativas y organizaciones afines.

Millones de artículos académicos en riesgo de desaparecer del Internet: un estudio revela lagunas en la preservación digital

Millions of research papers at risk of disappearing from the Internet. En: Bandiera_abtest: a Cg_type: News Subject_term: Information technology, Scientific community, Publishing [en línea], 2024. [consulta: 3 mayo 2024]. Disponible en: https://www.nature.com/articles/d41586-024-00616-5.


Un estudio sobre más de siete millones de publicaciones digitales sugiere que más de una cuarta parte de los artículos académicos no están siendo archivados y preservados adecuadamente. Esto indica que los sistemas de preservación en línea no están manteniendo el ritmo del crecimiento de la producción investigativa.

Martin Eve, investigador de literatura, tecnología y publicación en la Universidad de Birkbeck, Londres, señala que la cadena de notas al pie es esencial para la epistemología científica y de investigación. Sin embargo, más de dos millones de artículos con identificadores digitales únicos (DOI) no aparecían en archivos digitales importantes, a pesar de tener un DOI activo.

El estudio examinó si 7.438,037 obras con DOI estaban archivadas. Solo el 58% de los DOI referenciaban obras almacenadas en al menos un archivo digital. Esto plantea desafíos significativos para la preservación digital, especialmente para editoriales pequeñas que pueden carecer de recursos.

El análisis sugiere medidas para mejorar la preservación digital, como requisitos más estrictos en las agencias de registro de DOI y una mayor conciencia del problema entre editores e investigadores. Eve destaca la importancia de garantizar la sostenibilidad a largo plazo del ecosistema de investigación.

Guía para detectar revistas depredadoras


Alonso Arévalo, J., Saraiva, R., & Flórez Holguín, R. (2020). Revistas depredadoras: fraude en la ciencia. Cuadernos De Documentación Multimedia, 31. https://doi.org/10.5209/cdmu.68498


Las revistas depredadoras son publicaciones académicas fraudulentas que buscan obtener ganancias económicas aprovechándose de investigadores y académicos. Estas revistas suelen tener estándares de revisión por pares deficientes o inexistentes, y a menudo cobran tarifas exorbitantes a los autores para publicar sus trabajos sin proporcionar los servicios de revisión y edición adecuados.

Para detectar revistas depredadoras, es importante estar atento a ciertos indicadores de mala calidad editorial. Algunas señales de advertencia incluyen:

  1. Solicitud de tarifas de procesamiento de artículo (APC): Las revistas legítimas a menudo cobran tarifas de procesamiento de artículo para cubrir los costos de publicación, pero las revistas depredadoras pueden cobrar tarifas excesivas o no proporcionar una justificación clara para estas tarifas.
  2. Falta de revisión por pares adecuada: Las revistas depredadoras a menudo afirman realizar revisión por pares, pero en realidad no tienen un proceso de revisión riguroso o no cuentan con revisores expertos en el campo del artículo.
  3. Correos electrónicos no solicitados: Si recibe correos electrónicos no solicitados de revistas académicas invitándolo a enviar artículos para su publicación, es posible que esté tratando con una revista depredadora.
  4. Sitio web de baja calidad: Las revistas depredadoras suelen tener sitios web de aspecto poco profesional, con errores gramaticales o ortográficos, y falta de información clara sobre el proceso de revisión por pares, el comité editorial y las políticas de publicación.
  5. Ausencia de indexación en bases de datos relevantes: Las revistas legítimas suelen estar indexadas en bases de datos académicas reconocidas, como PubMed, Scopus o Web of Science. Si una revista no aparece en estas bases de datos o tiene una presencia limitada, puede ser una señal de advertencia.

En resumen, para detectar revistas depredadoras, es crucial investigar cuidadosamente la reputación y la calidad editorial de la revista, así como analizar cualquier tarifa asociada y evaluar la transparencia y la integridad del proceso editorial.

IA para el Descubrimiento Científico

Pool, Robert, ed. AI for Scientific Discovery: Proceedings of a Workshop. Washington, D.C.: National Academies Press, 2024. https://doi.org/10.17226/27457.

Descargar

El taller «IA para el Descubrimiento Científico» tuvo lugar del 12 al 13 de octubre de 2023. Las actas fueron publicadas en abril de 2024. El evento fue organizado por las Academias Nacionales de Ciencias, Ingeniería y Medicina.

Durante el último siglo, la inteligencia artificial (IA) ha evolucionado desde la teoría computacional hasta las tecnologías de conversación cotidianas, capturando la atención e interés del público y los medios de comunicación. También ha llamado la atención de la comunidad científica, donde ha proporcionado una nueva herramienta para apoyar la investigación y la exploración. Si bien la IA en el contexto de la investigación científica ha existido durante décadas, los avances en tecnología computacional y en la percepción en el mundo físico han creado oportunidades para integrar la IA en la ciencia de maneras inesperadas, con capacidades que están acelerando rápidamente. Como resultado, la IA ha sido aprovechada por una colección en expansión de disciplinas en las ciencias físicas y biológicas, así como en dominios de ingeniería. Si bien las oportunidades para la IA en el descubrimiento científico parecen infinitas, existen numerosas preguntas sobre qué hace que un descubrimiento sea confiable y confiable, si dicha investigación debe llevarse a cabo sin supervisión o intervención humana, y cómo priorizar mejor la agenda de investigación y la asignación de recursos sin amplificar las disparidades para individuos y naciones por igual.

Reconociendo la actualidad y las considerables implicaciones de la IA en nuestro mundo, las Academias Nacionales de Ciencias, Ingeniería y Medicina organizaron la IA para el Descubrimiento Científico – Un Taller del 12 al 23 de octubre de 2023. Líderes de todo el mundo en el campo de la IA, destacados investigadores en diversas disciplinas científicas e ingenieriles, y expertos en ética, derecho y ciencias sociales se reunieron para evaluar el estado del campo y proporcionar orientación sobre las oportunidades, así como los desafíos, que se avecinan. Las presentaciones y discusiones exploraron el futuro de la IA en cuanto a su papel como investigador autónomo llevando a cabo descubrimientos y consideraron aspectos éticos de la IA utilizada para el descubrimiento científico independiente.

Informe sobre la autoría y las filiaciones de los trabajos científicos y técnicos

Informe sobre la autoría y las filiaciones de los trabajos científicos y técnicos. Comité Español de Ética de la Investigación. nov. 2023

Descargar


El Comité Español de Ética en la Investigación ha aprobado su primer informe sobre la autoría y afiliaciones en trabajos científicos y técnicos, en respuesta a un encargo del Ministerio de Ciencia e Innovación. Recomienda que los códigos de buenas prácticas de investigación incluyan pautas sobre la indicación de afiliaciones, priorizando el orden basado en la relación contractual. La nueva Ley de la Ciencia permite la adscripción parcial o total del personal de investigación con terceras entidades, así como la posibilidad de doble afiliación. El Comité, compuesto por expertos en diversas áreas, promueve la ética profesional y la integridad científica, emitiendo informes y recomendaciones sobre estas materias, además de establecer principios para códigos de buenas prácticas en investigación.

AI y la ciencia: lo que piensan 1.600 investigadores

Van Noorden, Richard, y Jeffrey M. Perkel. «AI and Science: What 1,600 Researchers Think». Nature 621, n.o 7980 (27 de septiembre de 2023): 672-75. https://doi.org/10.1038/d41586-023-02980-0.

Las herramientas de inteligencia artificial (IA) están cada vez más presentes en la ciencia, y muchos científicos anticipan que pronto serán centrales en la práctica de la investigación, según una encuesta de Nature a más de 1.600 investigadores de todo el mundo.

Cuando se les preguntó qué tan útiles creían que se volverían las herramientas de IA para sus campos en la próxima década, más de la mitad esperaba que las herramientas fueran «muy importantes» o «esenciales». Sin embargo, los científicos también expresaron fuertes preocupaciones sobre cómo la IA está transformando la forma en que se realiza la investigación.

El porcentaje de documentos de investigación que mencionan términos de IA ha aumentado en todas las áreas en la última década, según un análisis para este artículo realizado por Nature.

Las técnicas estadísticas de aprendizaje automático están ahora bien establecidas, y los últimos años han visto avances rápidos en la IA generativa, incluidos los modelos de lenguaje grandes (LLMs), que pueden producir salidas fluidas como texto, imágenes y código basado en los patrones en sus datos de entrenamiento. Los científicos han estado utilizando estos modelos para ayudar a resumir y escribir documentos de investigación, generar ideas y escribir código, y algunos han estado probando la IA generativa para ayudar a producir nuevas estructuras de proteínas, mejorar los pronósticos meteorológicos y sugerir diagnósticos médicos, entre muchas otras ideas.

Al centrarse primero en el aprendizaje automático, los investigadores destacaron muchas formas en que las herramientas de IA los ayudan en su trabajo. De una lista de posibles ventajas, dos tercios señalaron que la IA proporciona formas más rápidas de procesar datos, el 58% dijo que acelera cálculos que antes no eran factibles, y el 55% mencionó que ahorra tiempo y dinero a los científicos.

«La IA me ha permitido progresar en responder preguntas biológicas donde el progreso era previamente inviable», dijo Irene Kaplow, bióloga computacional en la Universidad Duke en Durham, Carolina del Norte.

Los resultados de la encuesta también revelaron preocupaciones generalizadas sobre los impactos de la IA en la ciencia. De una lista de posibles impactos negativos, el 69% de los investigadores dijo que las herramientas de IA pueden llevar a una mayor dependencia del reconocimiento de patrones sin comprensión, el 58% dijo que los resultados pueden afianzar el sesgo o la discriminación en los datos, el 55% pensó que las herramientas podrían facilitar el fraude y el 53% señaló que el uso mal considerado puede llevar a investigaciones irreproducibles.

«El principal problema es que la IA desafía nuestros estándares existentes de prueba y verdad», dijo Jeffrey Chuang, quien estudia análisis de imágenes de cáncer en el Laboratorio Jackson en Farmington, Connecticut.

Usos esenciales Para evaluar las opiniones de los investigadores activos, Nature envió por correo electrónico a más de 40,000 científicos que habían publicado documentos en los últimos 4 meses de 2022, además de invitar a los lectores del Nature Briefing a participar en la encuesta. Dado que los investigadores interesados en la IA eran mucho más propensos a responder a la invitación, los resultados no son representativos de todos los científicos. Sin embargo, los encuestados se dividieron en 3 grupos: el 48% que desarrollaba o estudiaba directamente la IA, el 30% que había usado IA para su investigación y el 22% restante que no usaba IA en su ciencia.

Entre los que usaban IA en su investigación, más de una cuarta parte sintió que las herramientas de IA se volverían «esenciales» para su campo en la próxima década, en comparación con el 4% que pensaba que las herramientas eran esenciales ahora, y otro 47% pensó que la IA sería «muy útil». A los investigadores cuyo campo de investigación ya era la IA no se les hizo esta pregunta. Los investigadores que no usan IA eran, como era de esperar, menos entusiastas. Aun así, el 9% sintió que estas técnicas se volverían «esenciales» en la próxima década, y otro 34% dijo que serían «muy útiles».

Grandes modelos de lenguaje El chatbot ChatGPT y sus primos LLM fueron las herramientas que los investigadores mencionaron más a menudo cuando se les pidió que escribieran el ejemplo más impresionante o útil de herramientas de IA en la ciencia

Cuando se les pidió que seleccionaran de una lista de posibles impactos negativos de la IA generativa, el 68% de los investigadores se preocuparon por la proliferación de desinformación, otro 68% pensaron que facilitaría el plagio y dificultaría su detección, y el 66% estaban preocupados por la introducción de errores o inexactitudes en los documentos de investigación.

Los encuestados agregaron que estaban preocupados por estudios falsificados, información falsa y la perpetuación de sesgos si las herramientas de IA para diagnósticos médicos se entrenaran con datos históricamente sesgados.

«Claramente hay un mal uso de los grandes modelos de lenguaje, inexactitud y resultados huecos pero con un tono profesional que carecen de creatividad», dijo Isabella Degen, ingeniera de software y exemprendedora que ahora está estudiando para un doctorado en el uso de IA en medicina en la Universidad de Bristol, Reino Unido. «En mi opinión, no entendemos bien dónde está la línea entre el buen uso y el mal uso».

El beneficio más claro, pensaron los investigadores, era que los LLMs ayudaban a los investigadores cuyo primer idioma no es el inglés, al ayudar a mejorar la gramática y el estilo de sus documentos de investigación, o para resumir o traducir otro trabajo. «A pesar de un pequeño número de actores malintencionados, la comunidad académica puede demostrar cómo utilizar estas herramientas para el bien», dijo Kedar Hippalgaonkar, científico de materiales en la Universidad Tecnológica de Nanyang en Singapur.

Los investigadores que usan regularmente LLMs en el trabajo todavía son una minoría, incluso entre el grupo interesado que respondió a la encuesta de Nature. Un 28% de los que estudiaron IA dijeron que usaban productos de IA generativa como LLMs todos los días o más de una vez a la semana, un 13% de los que solo usan IA lo dijeron, y solo un 1% entre otros, aunque muchos al menos habían probado las herramientas.

Además, el uso más popular entre todos los grupos fue para la diversión creativa no relacionada con la investigación (un encuestado usó ChatGPT para sugerir recetas); una proporción menor usó las herramientas para escribir código, idear ideas de investigación y ayudar a escribir documentos de investigación.

Algunos científicos no quedaron impresionados por los resultados de los LLMs. «Siento que ChatGPT ha copiado todos los malos hábitos de escritura de los humanos: usando muchas palabras para decir muy poco», escribió un investigador que usa el LLM para ayudar a editar copias de documentos. Aunque algunos estaban emocionados por el potencial de los LLMs para resumir datos en narrativas, otros tuvieron una reacción negativa. «Si usamos IA para leer y escribir artículos, la ciencia pronto pasará de ser ‘para humanos por humanos’ a ‘para máquinas por máquinas'», escribió Johannes Niskanen, un físico de la Universidad de Turku en Finlandia.



La IA generativa frente a la publicación académica

«Hanging in the balance: Generative AI versus scholarly publishing». Accedido 24 de abril de 2024. https://spie.org/news/photonics-focus/janfeb-2024/hanging-in-the-balance#_=

Desde la invención de la imprenta por Gutenberg en 1454, el sector editorial ha enfrentado desafíos relacionados con la alfabetización, el plagio, la censura de la información y el acceso a la misma. El lanzamiento de ChatGPT-3 en noviembre de 2022 marcó un hito, ya que este modelo de lenguaje generativo ha revolucionado la capacidad de generación de ideas, lo que ha generado tanto entusiasmo como preocupación en la comunidad académica.

Uno de los aspectos más destacados del debate es la creatividad de los modelos de lenguaje generativo, que pueden generar textos e imágenes. Aunque su capacidad para inventar referencias puede ser un problema, estos modelos son útiles para la generación de nuevas ideas y para identificar lagunas en la investigación existente. Sin embargo, surge la pregunta sobre la atribución de autoría, ya que los modelos generativos no pueden ser considerados como autores de estudios científicos, según el Consejo de Ética en Publicación (COPE).

En cuanto a la revisión por pares, la falta de revisores cualificados y la sobrecarga de trabajo en los editores han llevado a considerar el uso de AI para agilizar el proceso. Aunque existen preocupaciones sobre la confidencialidad y el sesgo en los resultados generados por los modelos de lenguaje generativo, estos también pueden ser herramientas útiles para la revisión de literatura y la identificación de trabajos relevantes en un área de investigación.

Otro aspecto a considerar es el fraude en la publicación académica, que ha aumentado con la capacidad de los modelos de lenguaje generativo para producir textos con una calidad gramatical aparentemente perfecta. Sin embargo, la responsabilidad sigue recayendo en los autores humanos, quienes deben garantizar la integridad ética de sus investigaciones.

A pesar de estos desafíos, los modelos de lenguaje generativo también ofrecen oportunidades para hacer que la publicación académica sea más accesible para personas cuyo idioma nativo no es el inglés. Estas herramientas pueden ayudar a superar barreras lingüísticas y permitir que los investigadores se centren en la ciencia en lugar de en la perfección gramatical en sus manuscritos.

En última instancia, el debate sobre el papel de la AI generativa en la publicación académica aún está en curso. A medida que la tecnología avanza, es crucial abordar sus desafíos éticos y técnicos para garantizar que beneficie a la comunidad académica en su conjunto.

Inteligencia Artificial Generativa y Publicación Académica

Ahari, Juni. «Generative AI and Scholarly Publishing». Ithaka S+R (blog), 23 de abril de 2024. https://sr.ithaka.org/blog/generative-ai-and-scholarly-publishing/.

Durante los últimos años, Ithaka S+R ha llevado a cabo varios estudios importantes sobre el panorama de la publicación académica durante un período de cambio tecnológico rápido. No hay mejor ejemplo de lo rápido y radical que es este ritmo que las herramientas de inteligencia artificial generativa, que han pasado de los márgenes a un punto focal de la publicación académica en poco más de un año.

La primavera pasada, se llevaron a canbo entrevistas con editores, bibliotecarios, defensores, analistas, financiadores y responsables políticos a medida que los horizontes de posibilidad y riesgo planteados por la inteligencia artificial generativa se hacían evidentes. Se publicó, » The Second Digital Transformation of Scholarly Publishing«, a principios de este año.

En los meses intermedios, el alcance de la inteligencia artificial generativa en el ciclo de vida de la publicación académica ha crecido dramáticamente. Las herramientas de descubrimiento mejoradas están proporcionando formas más eficientes de adaptar la búsqueda y sintetizar cuerpos enteros de literatura para investigadores y lectores. Mientras tanto, las herramientas en el detección para automatizar aspectos de la revisión por pares, facilitar la presentación de artículos e identificar el fraude en la investigación ya están en uso o en la cima de los pipelines de desarrollo de productos. A medida que el panorama de productos comienza a madurar, y a medida que los casos de uso de los investigadores se vuelven más discernibles, se disponen de datos para respaldar una reflexión más profunda sobre cómo la inteligencia artificial generativa afectará a la comunicación y prácticas de publicación académica que no existían en este momento el año pasado.

Las cambiantes y rápidas necesidades y expectativas de los usuarios, el potencial de la inteligencia artificial generativa para mitigar desafíos sistémicos obstinados en la industria de la publicación académica, y la conciencia de los riesgos que plantea la inteligencia artificial generativa para el conocimiento experto demandan que encontremos tiempo para una reflexión profunda sobre lo que significa la inteligencia artificial generativa para la publicación académica como sector y su valor como componente de la infraestructura compartida que apoya la investigación científica y académica y las comunicaciones.

Para ayudar, Ithaka S+R está lanzando un nuevo estudio sobre las implicaciones estratégicas de la inteligencia artificial generativa para la publicación académica, con el apoyo de STM Solutions y un grupo de sus miembros. Las siguientes preguntas clave guiarán nuestra investigación:

¿La inteligencia artificial generativa se integrará en los objetivos, procesos e infraestructuras existentes para la publicación académica? ¿O representa esta una tecnología transformadora que requerirá una reestructuración fundamental de esos objetivos, procesos e infraestructuras? ¿Podría la inteligencia artificial generativa interpretar efectivamente nuestras suposiciones actuales sobre el papel y propósito de los editores obsoletas? ¿Qué nuevos roles podrían desempeñar los editores en un entorno de información radicalmente transformado? ¿Qué transformaciones potenciales deberían alentar los editores y qué riesgos requieren respuestas coordinadas inmediatas mientras la tecnología aún está echando raíces en el sector? ¿Qué tipos nuevos de infraestructura técnica y/o social compartida son necesarios para apoyar la adopción ética de la inteligencia artificial generativa en apoyo de los objetivos de la investigación y la publicación académica? ¿Qué sistemas y estructuras serán necesarios para equilibrar las necesidades de autores, lectores, titulares de derechos, editores y agregadores? ¿Qué sigue?

Ithaka S+R llevará a cabo entrevistas con tomadores de decisiones del sector editorial y otros con experiencia en el tema de la inteligencia artificial generativa, sobre las oportunidades y riesgos. Los hallazgos de nuestra investigación se compartirán a través de un informe temático y un seminario web público este verano. Este proyecto es parte de un conjunto de investigaciones que estamos llevando a cabo para explorar los impactos de la inteligencia artificial generativa en las prácticas de investigación y comunicación académica.

CANGURU: directrices éticas y de divulgación para el uso de inteligencia artificial generativa en la investigación académica

Cacciamani, Giovanni, Michael Eppler, Conner Ganjavi, Asli Pekcan, Brett Biedermann, Gary Collins, y Inderbir Gill. «Development of the ChatGPT and generative artificial intelligence natural large language models for accountable reporting and use (cangaru) guidelines», 27 de junio de 2023. https://doi.org/10.17605/OSF.IO/9Y5NW.

Ver guidelines

CANGARU es una iniciativa interdisciplinaria que busca establecer estándares éticos y de divulgación para el uso de inteligencia artificial generativa y modelos de lenguaje natural en la investigación académica. Su objetivo es promover el uso responsable de estas tecnologías mediante la colaboración con instituciones y desarrollar directrices coherentes y universales. Se enfoca en crear criterios para prácticas éticas y transparentes en el ámbito académico.

La iniciativa ChatGPT, Inteligencia Artificial Generativa y Modelos de Lenguaje Natural para el Reporte y Uso Responsable (CANGARU) con el objetivo de establecer un consenso interdisciplinario sobre el uso responsable, divulgación y guía para el reporte del uso de GAI/GPTs/LLM en el ámbito académico. Trabajando colaborativamente con individuos, organizaciones regulatorias académicas y editoriales, se mitigará de manera efectiva la posible confusión o guías conflictivas que podrían surgir cuando varios grupos trabajan independientemente en la misma tarea. A su vez, esto asegurará que cualquier recomendación sea coherente, completa y universalmente aplicable, promoviendo el uso responsable de esta poderosa tecnología.

El objetivo general de las directrices CANGARU es establecer prácticas recomendadas comúnmente compartidas y transdisciplinares para el uso de GAI/GPTs/LLM en el ámbito académico de la siguiente manera:

a. La Lista de Criterios ‘NO HACER’: Será una guía integral que tiene como objetivo asegurar el uso ético y adecuado de GAI/GPTs/LLM en la investigación académica. Cubrirá cada paso del proceso académico, desde (pero no limitado a) la generación de hipótesis de investigación, la conducción del estudio y el análisis de datos (incluida la codificación), la creación de imágenes, la interpretación de hallazgos y la redacción, revisión, refinamiento y edición del manuscrito. Esta lista servirá como un recurso valioso para los investigadores, proporcionando orientación sobre qué evitar a lo largo de las diferentes etapas del proceso de investigación. Al identificar y resaltar posibles obstáculos y preocupaciones éticas, la Lista de Criterios ‘NO HACER’ ayudará a los investigadores a navegar el uso de GAI/GPTs/LLM de manera responsable y con integridad.

b. La Lista de Criterios de Divulgación: Proporcionará orientación para que los investigadores divulguen de manera transparente su uso de GAI/GPTs/LLM en la investigación académica, mejorando la transparencia, la responsabilidad y permitiendo una mejor evaluación de los hallazgos de investigación. Se enfatiza la importancia de qué y cómo divulgar, fomentando la responsabilidad y abordando los posibles riesgos y limitaciones asociados con esta tecnología.

c. La Lista de Criterios de Reporte: Proporcionará una lista de verificación de recomendaciones para garantizar el reporte completo y transparente de GAI/GPTs/LLM cuando se utilicen como intervenciones en estudios científicos. Considerará todos los aspectos importantes que deben reportarse en el manuscrito científico para mejorar la transparencia, mejorar la reproducibilidad, estandarizar las prácticas de reporte, reducir la interpretación errónea, apoyar los procesos de revisión por pares y editoriales, y facilitar la síntesis de investigación y la traducción del conocimiento.