Archivo por años: 2023

Ideología Maker: los makerspaces, la mentalidad creadora y el movimiento creador

Hepp, Andreas, y Anne Schmitz. «Afterlives of the California Ideology| Local Ambivalences Toward the Maker Ideology: Makerspaces, the Maker Mindset, and the Maker Movement». International Journal of Communication 17, n.o 0 (22 de junio de 2023): 21. https://ijoc.org/index.php/ijoc/article/view/19628.


En el centro del movimiento globalizado Maker se encuentran la «mentalidad Maker» y los conceptos de una «nueva revolución industrial». Estos elementos encarnan aspectos de la ideología californiana en una conversación en curso, aunque asimétrica, entre la élite organizativa estadounidense y los Makerspaces locales.

Este artículo se adentra en estas dinámicas a través de una etnografía mediática llevada a cabo en cuatro Makerspaces ubicados en Berlín y Londres. En primer lugar, se examina en qué medida la ideología Maker proporciona un marco discursivo para la creación de los Makerspaces locales. A continuación, se analizan las referencias informales que se hacen a la ideología Maker. Por último, se reflexiona sobre cómo se apropia la ideología Maker en el ámbito local. Todo esto da lugar a lo que se conoce como ambivalencias locales hacia la ideología Maker: los espacios locales se refieren críticamente al movimiento Maker más amplio, y es a través de esta crítica que se incorporan partes de la ideología californiana.

En resumen, este artículo profundiza en las interacciones entre la mentalidad Maker y los imaginarios de una nueva revolución industrial, explorando cómo se manifiestan en los Makerspaces de Berlín y Londres. Se analizan las tensiones entre la ideología Maker global y las perspectivas locales, lo que contribuye a una comprensión más completa de las ambivalencias y apropiaciones que existen en torno al movimiento Maker en diferentes contextos.

Bibliotecas universitarias y formación permanente de las personas mayores: análisis de una experiencia en un entorno digital

Heredia Sánchez, Fernando. «Bibliotecas universitarias y formación permanente de las personas mayores: análisis de una experiencia en un entorno digital». Revista general de información y documentación 33, n.o 1 (2023): 281-98. https://dialnet.unirioja.es/servlet/articulo?codigo=8995367.

Se examina una experiencia educativa llevada a cabo en un entorno digital, dirigida específicamente a personas mayores de 55 años y ofrecida por una biblioteca universitaria. El objetivo de esta experiencia fue contribuir a la mejora de las competencias mediáticas e informacionales de los participantes a través de un taller que abordaba el uso del catálogo de la biblioteca, el acceso a recursos electrónicos, así como la participación en redes sociales y canales de comunicación digital.

La tasa de participación en el taller alcanzó un 60,49% del total de personas inscritas, y las expectativas de los participantes fueron cumplidas en un alto grado, obteniendo una puntuación promedio de 4,68 sobre 5. A pesar de los resultados positivos, se identificaron algunas limitaciones en el desarrollo de la actividad, como la elección de la fecha para su realización, la existencia de una brecha de género en la participación y la falta de ofrecer formación complementaria.

Como conclusión, se destaca que la participación activa de las bibliotecas universitarias en la formación de personas mayores posee un valor estratégico. Esta labor se alinea con los Objetivos de Desarrollo Sostenible, especialmente aquellos relacionados con la inclusión, el acceso a la información, el aprendizaje permanente, la lucha contra las desigualdades y la promoción del uso de las tecnologías.

Las bibliotecas con makerspaces y terceros espacios están viendo cómo los índices de asistencia superan los de los años anteriores a la pandemia

«Tenemos un lema ‘el silencio ha abandonado el edificio’. Si el espacio está completamente silencioso, llegas a pensar ‘esto no está funcionando como yo quiero´’. Deseo que haya más conversación, más reuniones y más socialización’.

Gregor Smart, director de The Kirstein Business Library & Innovation Center (KBLIC) de la biblioteca pública de Boston

Callahan, Cloey. «Remote Workers Flock to Libraries for Resources, Collaboration». WorkLife (blog), 3 de mayo de 2023. https://www.worklife.news/spaces/remote-work-libraries/.

Las bibliotecas se vieron muy afectadas por los diversos cierres que se produjeron durante los años de apogeo de Covid-19. Pero ahora, gracias al auge del trabajo a distancia, están experimentando una ganancia inesperada.

«Ha surgido toda una nueva población de personas que ni siquiera conocían la biblioteca», afirma Gregor Smart, director de la Biblioteca Empresarial Kirstein y del Centro de Innovación de la Biblioteca Pública de Boston «Hay una nueva oleada de gente que viene a la biblioteca. Creo que se ha corrido la voz sobre nuestro centro de innovación. La gente se está dando cuenta de que es diferente». Los trabajadores a distancia acuden en masa a las bibliotecas en busca de recursos y colaboración

La Biblioteca Empresarial y Centro de Innovación Kirstein (KBLIC) invita a creadores de medios de comunicación, innovadores, solicitantes de empleo, empresarios, organizaciones sin ánimo de lucro, inversores, programadores y creadores a su nuevo espacio. Las personas con mentalidad empresarial pueden disfrutar de un espacio acogedor y moderno con más de 1.500 metros cuadrados de recursos impresos, asientos flexibles, tecnología innovadora para realizar investigaciones empresariales y zonas dedicadas para colaborar en proyectos con colegas o desarrollar una nueva habilidad profesional.

Y no se trata sólo de la Biblioteca Pública de Boston, otras bibliotecas de Estados Unidos están viendo cómo los índices de asistencia superan los de los años anteriores a la pandemia o, como mínimo, los igualan. Y esta afluencia de interés por utilizar las bibliotecas como tercer espacio de trabajo está poniendo en entredicho la antigua visión de las bibliotecas como espacios polvorientos cuyas atmósferas silenciosas estaban ferozmente custodiadas por severos bibliotecarios. En su lugar han surgido prósperos centros de colaboración para personas que desean conectar con otras, al tiempo que realizan un trabajo específico, con acceso a tecnología inteligente.

Por ejemplo, la biblioteca pública de Boston, de 5.000 metros cuadrados, refleja los espacios de coworking en muchos aspectos. Dispone de salas de conferencias que se pueden reservar para pequeñas reuniones, acceso a WiFi y acceso a expertos que pueden ayudar en cuestiones tecnológicas. Smart dice que se consideran un «espacio de coworking original».

El centro de innovación de la biblioteca se añadió durante su renovación de 2016 para crear un espacio maker con una impresora 3D y un laboratorio de innovación con una pantalla verde donde se puede reservar un tiempo para grabar podcasts, ordenadores de sobremesa Mac con photoshop y mucho más.

«En los últimos seis a nueve meses hemos reanudado realmente y el espacio está lleno», dijo Smart. «Se nota que la gente está en llamadas de negocios, en entrevistas de trabajo, en llamadas Zoom, en pequeñas reuniones. La gente viene a nuestro espacio».

Aunque el trabajo a distancia es cada vez más popular, puede resultar agobiante estar en casa todo el día. Muchos se han inclinado por las cafeterías u otros espacios de coworking para establecer contacto personal, pero la biblioteca tiene una ventaja sobre ambos: es gratuita.

Smart ha disfrutado personalmente viendo cómo los trabajadores remotos de la biblioteca tenían momentos casuales entre ellos, es decir, el efecto «water cooler». «Durante Covid no teníamos esas conversaciones ocasionales con gente diversa», dice Smart. «Al venir aquí, tienes esas oportunidades. Creo que es una verdadera ventaja, en comparación con estar en casa. He oído a gente que dice: ‘Puedo trabajar desde casa, pero me siento un poco solo'».

Lo que ocurre en la Biblioteca Pública de Boston refleja una tendencia nacional. The Urban Libraries Council, del que forman parte otras 170 bibliotecas, descubrió que la mayor parte de la programación de las bibliotecas tuvo que cambiar tras la pandemia. Al haber más gente que quiere pasar su jornada laboral en la biblioteca, las bibliotecas se han adaptado para construir sus espacios comunitarios, salas de reuniones y otros espacios reservables.

«Todo se reduce a que las bibliotecas dispongan de esas comodidades que buscan las personas que teletrabajan, como acceso a Internet, espacio físico fuera de sus casas», explica Elise Calanni, responsable de comunicación de The Urban Libraries Council. «Pero lo más importante es que las bibliotecas son el lugar más rentable para trabajar desde casa. Es una combinación perfecta de factores para que la gente empiece realmente a utilizar estas bibliotecas como centros comunitarios». Según Calani «Esta afluencia de personas que trabajan allí, anima al poder volver a ver cómo las bibliotecas vuelven a estar más animadas y como simplemente estar en el espacio da a la gente oportunidades de conectar con sus comunidades de muchas maneras diferentes». Y añadió «Las bibliotecas públicas siempre han tenido gran capacidad de adaptación a las necesidades de las comunidades. Lo ven como una gran oportunidad para introducir a más gente en el espacio».

Otro aspecto por el que los trabajadores a distancia acuden en masa a sus bibliotecas es porque estos establecimientos suelen ser el núcleo de sus comunidades. Claudia Strange, Directora de Relaciones Públicas y Marketing del Sistema de Bibliotecas del Condado de Fulton, afirma que la gente acude a las bibliotecas de Atlanta porque forman parte de su barrio. La red de bibliotecas públicas ha finalizado recientemente un proyecto de mejora de capital de 10 años de duración que ha incluido la creación de ocho nuevas bibliotecas, importantes ampliaciones en dos de ellas y la modernización de otras 24. Strange afirma que esto ha contribuido a crear un lugar más moderno y atractivo para los teletrabajadores.

Al igual que la Biblioteca Pública de Boston, Strange afirma que intentan alejarse de «las bibliotecas de antaño que son ‘hush hush'». «Ya no somos los espacios silenciosos de antes», dice Strange. «Parte de ello se debe a que acogemos actividades laborales». «Ahora disponemos de los recursos necesarios para albergar este tipo de actividad», afirma Strange. «En el caso de la biblioteca central, queríamos disponer de ese espacio y de toda una planta dedicada a esa posibilidad. Se puede entrar, colocar el ordenador, sentarse, trabajar y entrar y salir cuando sea necesario. Queríamos que fuera un lugar de trabajo a distancia».

Las empresas de IA generativa deben publicar informes de transparencia

Arvind Narayanan & Sayash Kapoor. “Generative AI companies Must Publish Transparency Reports”.Knight First Amendment Institute at Columbia University, June 26, 2023

Ver noticia

¿Cuántas personas utilizan chatbots y generadores de texto a imagen para alguno de los muchos usos prohibidos, como generar desinformación o imágenes de abusos a menores? ¿Con qué frecuencia consiguen eludir los filtros de las herramientas? ¿Están haciendo algo las empresas para rastrear o hacer cumplir las infracciones de sus condiciones de servicio?

Al igual que las redes sociales, la gente utiliza la IA generativa para generar y consumir contenidos, y puede verse expuesta a contenidos nocivos en el proceso. Debido a la presión pública y a los requisitos normativos, se ha convertido en una práctica habitual que las empresas de redes sociales publiquen informes de transparencia detallados que cuantifiquen la difusión de contenidos nocivos en la plataforma. Creemos que las empresas de IA deberían hacer lo mismo.

En concreto, para cada categoría de contenido nocivo, los informes de transparencia deben

  • Explicar cómo se define y cómo se detecta el contenido nocivo.
  • Informar de la frecuencia con la que se ha encontrado en el periodo del informe.
  • Si es el resultado de una violación de las condiciones del servicio, describir el mecanismo de aplicación y proporcionar un análisis de su eficacia.
  • Describa las medidas de mitigación aplicadas para evitarlo (por ejemplo, filtros de seguridad) y proporcione un análisis de su eficacia.

En las redes sociales, los investigadores tienen cierta visibilidad de la difusión de contenidos nocivos, ya que gran parte de ellos son públicos. Pero con la IA generativa, estamos completamente a oscuras. Así que estas medidas de transparencia son urgentes.

Los informes de transparencia son más importantes para las aplicaciones de uso general (por ejemplo, ChatGPT) y las destinadas a ser utilizadas en entornos de alto riesgo (como la medicina, las finanzas, la abogacía o la contratación).

En el caso de la IA generativa de código abierto, la transparencia es inviable, ya que los usuarios pueden ejecutarla en sus propios dispositivos. Pero creemos que, incluso con los modelos de código abierto, la mayoría de la gente preferirá las versiones basadas en la nube a las de ejecución local, debido al hardware y los conocimientos necesarios para ejecutarlas. Esos proveedores de servicios, más que los desarrolladores de modelos de código abierto, deberían publicar informes de transparencia.

Los informes de transparencia deben cubrir los tres tipos de daños derivados de los contenidos generados por IA

En primer lugar, las herramientas de IA generativa podrían utilizarse para dañar a otros, por ejemplo creando deepfakes no consentidos o materiales de explotación sexual infantil. Los desarrolladores tienen políticas que prohíben tales usos. Por ejemplo, las políticas de OpenAI prohíben una larga lista de usos, incluido el uso de sus modelos para generar asesoramiento legal, financiero o médico no autorizado para terceros. Pero estas políticas no pueden tener un impacto en el mundo real si no se aplican, y debido a la falta de transparencia de las plataformas sobre su aplicación, no tenemos ni idea de si son eficaces. Por ejemplo, los reporteros de ProPublica descubrieron en repetidas ocasiones que Facebook no eliminaba completamente los anuncios discriminatorios de su plataforma a pesar de afirmar que lo había hecho.

En segundo lugar, los usuarios pueden confiar demasiado en la IA para obtener información objetiva, como asesoramiento jurídico, financiero o médico. A veces simplemente no son conscientes de la tendencia de los chatbots actuales a generar con frecuencia información incorrecta. Por ejemplo, un usuario puede preguntar «¿cuáles son las leyes de divorcio en mi estado?» y no saber que la respuesta no es fiable. Otra posibilidad es que el usuario se vea perjudicado por no haber sido lo suficientemente cuidadoso como para verificar la información generada, a pesar de saber que podría ser inexacta. La investigación sobre el sesgo de automatización muestra que las personas tienden a confiar demasiado en las herramientas automatizadas en muchos escenarios, a veces cometiendo más errores que cuando no utilizan la herramienta.

En tercer lugar, los contenidos generados podrían ser intrínsecamente indeseables. A diferencia de los tipos anteriores, en este caso los daños no se deben a la malicia, descuido o desconocimiento de las limitaciones por parte de los usuarios. Más bien, el contenido intrínsecamente problemático se genera aunque no se haya solicitado. Por ejemplo, la aplicación de creación de avatares de Lensa generaba imágenes sexualizadas y desnudos cuando las mujeres subían sus selfies. La difamación también es intrínsecamente perjudicial y no una cuestión de responsabilidad del usuario. No sirve de consuelo a la víctima de la difamación decir que el problema se resolvería si todos los usuarios que pudieran encontrar una afirmación falsa sobre ellos tuvieran cuidado de verificarla.

Saber qué tipos de daños afectan más significativamente a las personas reales ayudará a los investigadores a comprender qué intervenciones de mitigación de daños necesitan más desarrollo. Ayudará a los educadores a enseñar a la gente a utilizar la IA generativa de forma responsable. Y, lo que es más importante, ayudará a los reguladores y a la sociedad civil a responsabilizar a las empresas del cumplimiento de sus políticas.

 Inteligencia artificial: cultura y bibliotecas.

Narea Cortés, Álvaro Inteligencia artificial: Cultura y bibliotecas. Serie Bibliotecología y Gestión de Información, 2023, n. 123, pp. 1-34.

Texto completo

En el presente trabajo exploratorio se analiza la definición de Inteligencia Artificial (IA) y el rol que cumplen los datos para alimentar los sistemas decisionales, teniendo presente que una biblioteca no guarda datos sino que identifica las relaciones entre estos y realiza un trabajo constante de verificación. Evidencia la patología de los sistemas inteligentes en el mundo actual y la falta de ética humana, con ejemplos que advierten sobre ello. Indica cómo la Inteligencia Artificial afectará los empleos del futuro y cómo se relaciona con la cultura y las bibliotecas.

A los muertos en la biblioteca

Una casa con muchas ventanas, en un pueblo de un valle,
alberga una biblioteca de libros queridos ya muertos,
tarareando débilmente para sí misma una elegía,
El solitario y pequeño Megrim de los Muertos.

Su laberinto de estanterías, sus espacios abarrotados,
resuenan con el sonido de todas sus pérdidas,
Sus libros antiguos con caras amarillas y descoloridas
Están llenos del polvo de cursos interminables.

Pero aún así, algunos visitantes vienen a hojear,
acariciando los libros con reverente cuidado,
Como para extraer de sus silenciosos votos
Los espíritus de los muertos que una vez estuvieron allí.

Así que entremos con corazones humildes,
y hablemos en voz baja y con cuidado,
Porque aquí los muertos susurran sus antiguas artes,
Y la biblioteca está viva con sus gemidos silenciosos.


«To the Dead in the Library» de Richard Wilbur

Richard Wilbur, poeta estadounidense y ganador del Premio Pulitzer, dedicó este poema a aquellos que han dejado su legado en las páginas de los libros de la biblioteca.

Una visita a la biblioteca

«Una visita a la biblioteca»

Sobre este escenario, amigo mío, en tiendas como estas
Con sabios, artistas, líderes de compañías,
Malgasté la mitad de mi juventud, o más, o menos,
Las artes con todos sus adornos, habitaron en tiendas
Como esta humilde estructura podía ofrecer.

Aquí, con rostros serenos y ojos penetrantes,
Firmé amistad con todas las dulces artes,
Y una veneración tranquila y abierta
Me unió a los grandes pensadores del pasado:
Aquí encontré solaz en mis días más oscuros.

En este refugio bendito, este precioso templo,
Aquí, en soledad, hablé con mis amigos;
Y a medida que vagaba por los estantes,
La elocuencia, la sabiduría y la gracia
Fluían de todos los volúmenes en mis manos.

Aquí, también, pude leer las almas de los hombres,
Y así, enriquecer la mía propia;
Y aprendí de sabios que aún hablan
Más allá del silencio de la muerte:
Aquí, en resumen, encontré la vida eterna.

«A Visit to the Library» de William Wordsworth

William Wordsworth (1770-1850) fue un poeta inglés considerado una de las figuras más importantes del movimiento romántico en la literatura. Nació en Cockermouth, Cumberland, Inglaterra, y pasó gran parte de su vida en el hermoso paisaje de los lagos de la región de Lake District.

Guía del Software libre en bibliotecas

Alonso Arévalo, Julio, y Marlene Quinde Cordero. Guía del Software libre en bibliotecas. Salamanca: Ediciones del Universo, 2021.

Texto completo

PDF

ePub

Actualmente se están siguiendo tendencias y temas emergentes dentro del entorno de la información que brindan una oportunidad única a las bibliotecas y que se alinean perfectamente con la filosofía del código abierto. Estos avances incluyen los movimientos open como: datos abiertos vinculados, gestión “open” de datos de investigación; ciencia abierta; contenido abierto, gobierno abierto, recursos educativos en abierto (REA); crowdsourcing, y, por supuesto, el acceso abierto. Las soluciones de código abierto para la biblioteca encajan muy bien en un momento especialmente más ampliamente abierto que afecta al mundo académico en la actualidad. Las razones por las que las bibliotecas no adoptan o remplazan software libre por software propietario están en la capacitación, conciencia y ausencia de compromiso gubernamental, por lo que los programas de formación profesional deberían incluir cuestiones relativas al software libre en sus currículos profesionales. La motivación que tienen en cuenta las bibliotecas para el uso de un sistema de gestión bibliotecaria de código abierto suele ser principalmente de carácter económico, aunque también se tienen en cuenta otras cuestiones como la mayor flexibilidad que proporcionan los programas de software libre para diseñar sistemas personalizados con que poder satisfacer mejor las necesidades de sus usuarios más inmediatos. Aquí se recogen algunos de los programas de Software Libre y Código abierto clasificados por categorías que son de utilidad para las bibliotecas

Los Autores

Julio Alonso Arévalo y Marlene Quinde Cordero son bibliotecarios de la Universidad de Salamanca en España y de la Universidad de Cuenca en Ecuador, ambos desarrollan diferentes servicios en el mundo de las bibliotecas y de la información

Recomendaciones de la Asociación Mundial de Editores Médicos (WAME) sobre chatbots e inteligencia artificial generativa en relación con las publicaciones académicas

Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications, WAME (World Association of Medical Editors) Revised May 31, 2023.

Los chatbots almacenan la información proporcionada, como el contenido y las instrucciones, y pueden utilizarla en respuestas futuras. Esto implica que el contenido académico generado o editado mediante IA puede permanecer y aparecer en futuras respuestas, lo que aumenta el riesgo de plagio involuntario tanto para el usuario como para los futuros usuarios de la tecnología. Es importante que cualquier persona que necesite mantener la confidencialidad de un documento, incluyendo autores, editores y revisores, sea consciente de este problema antes de considerar el uso de chatbots para editar o generar trabajos.

Sin embargo, los chatbots pueden utilizarse para tareas sencillas de tratamiento de textos (similares a los programas de tratamiento de textos y corrección gramatical), generación de ideas y textos o investigación sustantiva. Las recomendaciones se han adaptado para dar cabida a estas distintas aplicaciones.

1) Solo los humanos pueden ser autores;

2) Los autores deben reconocer las fuentes de sus materiales;

3) Los autores deben asumir la responsabilidad pública de su trabajo;

4) Los editores y revisores deben informar a los autores y entre sí sobre el uso de chatbots en la evaluación de manuscritos, revisiones y correspondencia;

5) Los editores requieren herramientas digitales adecuadas para abordar los efectos de los chatbots en la publicación.

Recomendación 1 de WAME: Los chatbots no pueden ser autores.

Las revistas han empezado a publicar artículos en los que se han utilizado chatbots como Bard, Bing y ChatGPT, y algunas revistas incluyen a los chatbots como coautores. El estatus legal de un autor difiere de un país a otro, pero en la mayoría de las jurisdicciones, un autor debe ser una persona jurídica. Los chatbots no cumplen los criterios de autoría del Comité Internacional de Editores de Revistas Médicas (ICMJE), en particular el de poder dar «la aprobación final de la versión que se publicará» y «ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente.» Ninguna herramienta de IA puede «entender» una declaración de conflicto de intereses, y no tiene capacidad legal para firmar una declaración. Los chatbots no tienen ninguna afiliación independiente de sus desarrolladores. Dado que los autores que presentan un manuscrito deben asegurarse de que todos los nombrados como autores cumplen los criterios de autoría, los chatbots no pueden incluirse como autores.

Recomendación 2 de WAME: Los autores deben ser transparentes cuando se utilizan chatbots y proporcionar información sobre cómo se utilizaron.

Debe indicarse el alcance y el tipo de uso de chatbots en las publicaciones de revistas. Esto es coherente con la recomendación del ICMJE de reconocer la ayuda en la redacción y proporcionar en los Métodos información detallada sobre cómo se llevó a cabo el estudio y los resultados generados.

  • Recomendaciones de WAME 2.1: Los autores que envíen un artículo en el que se haya utilizado un chatbot/AI para redactar un nuevo texto deben indicar dicho uso en el agradecimiento; se deben especificar todas las indicaciones utilizadas para generar un nuevo texto, o para convertir texto o indicaciones de texto en tablas o ilustraciones.
  • Recomendación 2.2 de WAME: Cuando se utilice una herramienta de IA, como un chatbot, para realizar o generar trabajo analítico, ayudar a informar de los resultados (por ejemplo, generando tablas o figuras) o escribir códigos informáticos, esto debe indicarse en el cuerpo del artículo, tanto en el resumen como en la sección de métodos. Con el fin de permitir el escrutinio científico, incluida la replicación y la identificación de falsificaciones, debe facilitarse la secuencia de comandos completa utilizada para generar los resultados de la investigación, la hora y la fecha de la consulta, así como la herramienta de IA utilizada y su versión.

Recomendación 3 de WAME: Los autores son responsables del material proporcionado por un chatbot en su artículo (incluida la exactitud de lo presentado y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluidas las fuentes originales del material generado por el chatbot). Los autores de artículos escritos con la ayuda de un chatbot son responsables del material generado por el chatbot, incluida su exactitud. Hay que tener en cuenta que el plagio es «la práctica de tomar el trabajo o las ideas de otra persona y hacerlas pasar por propias», y no sólo la repetición literal de un texto previamente publicado. Es responsabilidad del autor asegurarse de que el contenido refleja sus datos e ideas y no es plagio, fabricación o falsificación. De lo contrario, ofrecer dicho material para su publicación, independientemente de cómo se haya escrito, puede constituir una falta de ética científica. Del mismo modo, los autores deben asegurarse de que todo el material citado se atribuye adecuadamente, incluyendo citas completas, y que las fuentes citadas apoyan las declaraciones del chatbot. Dado que un chatbot puede estar diseñado para omitir fuentes que se opongan a los puntos de vista expresados en sus resultados, es responsabilidad de los autores encontrar, revisar e incluir tales puntos de vista contrarios en sus artículos. (Los autores deben identificar el chatbot utilizado y la pregunta específica (enunciado de la consulta) utilizada con el chatbot. Deben especificar qué han hecho para mitigar el riesgo de plagio, ofrecer una visión equilibrada y garantizar la exactitud de todas sus referencias.

Recomendación 4 de WAME: Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de chatbots en la evaluación del manuscrito y la generación de revisiones y correspondencia. Si utilizan chatbots en sus comunicaciones con los autores y entre sí, deben explicar cómo se utilizaron. Los editores y revisores son responsables de cualquier contenido y cita generados por un chatbot. Deben ser conscientes de que los chatbots retienen las instrucciones que se les envían, incluido el contenido del manuscrito, y que proporcionar el manuscrito de un autor a un chatbot viola la confidencialidad del manuscrito enviado.

Recomendación 5 de WAME: Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA. Tales herramientas deben ponerse a disposición de los editores, independientemente de su capacidad para pagarlas, por el bien de la ciencia y del público, y para ayudar a garantizar la integridad de la información sanitaria y reducir el riesgo de resultados adversos para la salud. Muchos editores de revistas médicas utilizan enfoques de evaluación de manuscritos que no fueron diseñados para hacer frente a las innovaciones y las industrias de la IA, incluidos los textos e imágenes plagiados manipulados y los documentos generados en papel. Ya han estado en desventaja al tratar de diferenciar lo legítimo de lo fabricado, y los chatbots llevan este desafío a un nuevo nivel. Los editores necesitan acceder a herramientas que les ayuden a evaluar los contenidos con eficacia y precisión. Esto es especialmente importante para los editores de revistas médicas, donde las consecuencias adversas de la desinformación incluyen posibles daños a las personas.

¿Puede aparecer ChatGPT cómo autor o coautor de artículos científicos?

Stokel-Walker, Chris. «ChatGPT Listed as Author on Research Papers: Many Scientists Disapprove». Nature 613, n.o 7945 (18 de enero de 2023): 620-21. https://doi.org/10.1038/d41586-023-00107-z.

Varios científicos han expresado su desaprobación al ver que ChatGPT, la herramienta de IA, figura como coautor en al menos cuatro artículos de investigación. Esta situación ha llevado a las editoriales a tomar medidas rápidas para regular su uso.

El popular chatbot de inteligencia artificial ChatGPT ha hecho su entrada oficial en el ámbito de la literatura científica y ha sido citado como autor en al menos cuatro artículos y preprints. Este hecho ha suscitado debates entre directores de revistas, investigadores y editores sobre la inclusión de herramientas de IA en publicaciones académicas y la conveniencia de citar al bot como autor. Las editoriales se apresuran a establecer políticas para el chatbot, que OpenAI, una empresa tecnológica con sede en San Francisco (California), presentó en noviembre como herramienta de libre acceso.

Al ser consultados por el equipo de noticias de Nature, los editores y servidores de preprints coinciden unánimemente en que los sistemas de IA como ChatGPT no cumplen los requisitos para figurar como autores de estudios, ya que no pueden asumir la responsabilidad del contenido y la integridad de los artículos científicos. Sin embargo, algunos editores sugieren que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores. Es importante señalar que el equipo de noticias de Nature opera con independencia del equipo de su revista y de su editor, Springer Nature.

En un caso concreto mencionado, un editor informó a Nature de que ChatGPT había sido citado por error como coautor, y la revista tomaría medidas correctoras para rectificar el error.

En un preprint publicado en el repositorio médico medRxiv, ChatGPT aparece como uno de los 12 autores de un estudio que explora su uso en la educación médica. Richard Sever, cofundador del repositorio y de su sitio hermano bioRxiv, reconoce que la conveniencia de utilizar y atribuir herramientas de IA como ChatGPT en la investigación es un tema de debate. Sugiere que las convenciones relativas a los créditos de las herramientas de IA podrían evolucionar con el tiempo.

Sever subraya la necesidad de diferenciar entre el papel formal de un autor en un manuscrito académico y el concepto general de autor como redactor del documento. Dado que los autores son legalmente responsables de su trabajo, cree que sólo deben figurar en la lista las personas físicas. No obstante, reconoce que se han dado casos de personas que han intentado incluir como autores a entidades no humanas, como mascotas o personajes de ficción, pero considera que se trata más de una cuestión de comprobación y verificación que de una cuestión de política. Victor Tseng, autor correspondiente del preprint, no hizo comentarios cuando se le contactó.

En un número reciente de Nurse Education in Practice, un editorial citaba por error a ChatGPT como coautora junto a Siobhan O’Connor, investigadora en tecnología sanitaria de la Universidad de Manchester. Roger Watson, redactor jefe de la revista, reconoció el error y declaró que se corregiría con prontitud. Atribuyó el descuido al diferente sistema de gestión de los editoriales en comparación con los artículos de investigación.

Alex Zhavoronkov, director general de Insilico Medicine, una empresa de Hong Kong dedicada al descubrimiento de fármacos mediante IA, citó a ChatGPT como coautor en un artículo publicado en la revista Oncoscience. Zhavoronkov mencionó que su empresa ha publicado más de 80 artículos generados por herramientas de IA generativa y expresó su satisfacción por el rendimiento de ChatGPT a la hora de redactar un artículo de alta calidad en comparación con herramientas de IA anteriores.

En cuanto al cuarto artículo, fue coescrito por un chatbot anterior llamado GPT-3 y se publicó inicialmente en el servidor francés de preprints HAL en junio de 2022. La coautora, Almira Osmanovic Thunström, neurobióloga del Hospital Universitario Sahlgrenska de Gotemburgo (Suecia), mencionó que, tras recibir comentarios de los revisores, reescribió el artículo y lo envió a una segunda revista. Tras las revisiones, el artículo fue aceptado para su publicación con GPT-3 como autor.

Política editorial

Se están elaborando y revisando las políticas de las editoriales sobre el uso de ChatGPT y otras herramientas de IA en la autoría. Los redactores jefe de Nature y Science, Magdalena Skipper y Holden Thorp, respectivamente, afirman que ChatGPT no cumple los criterios de autoría debido a la falta de responsabilidad que puede atribuirse a los grandes modelos lingüísticos (LLM). Se recomienda a los autores que utilicen LLM durante el desarrollo de un artículo que documenten su uso en las secciones de métodos o agradecimientos, según proceda.

Taylor & Francis, una editorial con sede en Londres, está revisando actualmente su política sobre la autoría de la IA. Sabina Alam, Directora de Ética e Integridad Editorial, está de acuerdo en que los autores son responsables de la validez e integridad de su trabajo y deben reconocer el uso de los LLM en la sección de agradecimientos. Sin embargo, Taylor & Francis aún no ha recibido ningún envío que acredite a ChatGPT como coautor.

El consejo del servidor de preprints arXiv, que se centra en las ciencias físicas, ha mantenido debates internos y está avanzando hacia el establecimiento de un enfoque para el uso de IA generativas. Steinn Sigurdsson, director científico y astrónomo de la Universidad Estatal de Pensilvania, subraya que una herramienta de software no puede figurar como autor, ya que no puede dar su consentimiento a las condiciones de uso y al derecho a distribuir contenidos. Hasta el momento no se ha identificado ningún preprints arXiv en el que ChatGPT figure como coautor, y próximamente se darán orientaciones a los autores sobre esta cuestión.

La ética de la IA generativa

La ética que rodea a la IA generativa, como ChatGPT, plantea importantes consideraciones. Matt Hodgkinson, responsable de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido, señala que las directrices de autoría vigentes indican que ChatGPT no debe ser acreditado como coautor. Aunque es posible que las herramientas de IA realicen una contribución académica significativa, el aspecto crucial es su capacidad para aceptar la coautoría y asumir la responsabilidad del estudio o de su contribución específica. Aquí es donde el concepto de conceder la coautoría a las herramientas de IA encuentra obstáculos.

Alex Zhavoronkov, director general de Insilico Medicine, explica que al intentar utilizar ChatGPT para escribir artículos más técnicos, se quedó corto. La IA genera a menudo afirmaciones que pueden no ser exactas, y hacer la misma pregunta varias veces puede dar respuestas diferentes. Esto suscita preocupación por el posible uso indebido del sistema en el mundo académico, ya que personas sin conocimientos especializados podrían intentar redactar artículos científicos utilizando contenidos generados por la IA.