Recomendaciones de la Asociación Mundial de Editores Médicos (WAME) sobre chatbots e inteligencia artificial generativa en relación con las publicaciones académicas

Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications, WAME (World Association of Medical Editors) Revised May 31, 2023.

Los chatbots almacenan la información proporcionada, como el contenido y las instrucciones, y pueden utilizarla en respuestas futuras. Esto implica que el contenido académico generado o editado mediante IA puede permanecer y aparecer en futuras respuestas, lo que aumenta el riesgo de plagio involuntario tanto para el usuario como para los futuros usuarios de la tecnología. Es importante que cualquier persona que necesite mantener la confidencialidad de un documento, incluyendo autores, editores y revisores, sea consciente de este problema antes de considerar el uso de chatbots para editar o generar trabajos.

Sin embargo, los chatbots pueden utilizarse para tareas sencillas de tratamiento de textos (similares a los programas de tratamiento de textos y corrección gramatical), generación de ideas y textos o investigación sustantiva. Las recomendaciones se han adaptado para dar cabida a estas distintas aplicaciones.

1) Solo los humanos pueden ser autores;

2) Los autores deben reconocer las fuentes de sus materiales;

3) Los autores deben asumir la responsabilidad pública de su trabajo;

4) Los editores y revisores deben informar a los autores y entre sí sobre el uso de chatbots en la evaluación de manuscritos, revisiones y correspondencia;

5) Los editores requieren herramientas digitales adecuadas para abordar los efectos de los chatbots en la publicación.

Recomendación 1 de WAME: Los chatbots no pueden ser autores.

Las revistas han empezado a publicar artículos en los que se han utilizado chatbots como Bard, Bing y ChatGPT, y algunas revistas incluyen a los chatbots como coautores. El estatus legal de un autor difiere de un país a otro, pero en la mayoría de las jurisdicciones, un autor debe ser una persona jurídica. Los chatbots no cumplen los criterios de autoría del Comité Internacional de Editores de Revistas Médicas (ICMJE), en particular el de poder dar «la aprobación final de la versión que se publicará» y «ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente.» Ninguna herramienta de IA puede «entender» una declaración de conflicto de intereses, y no tiene capacidad legal para firmar una declaración. Los chatbots no tienen ninguna afiliación independiente de sus desarrolladores. Dado que los autores que presentan un manuscrito deben asegurarse de que todos los nombrados como autores cumplen los criterios de autoría, los chatbots no pueden incluirse como autores.

Recomendación 2 de WAME: Los autores deben ser transparentes cuando se utilizan chatbots y proporcionar información sobre cómo se utilizaron.

Debe indicarse el alcance y el tipo de uso de chatbots en las publicaciones de revistas. Esto es coherente con la recomendación del ICMJE de reconocer la ayuda en la redacción y proporcionar en los Métodos información detallada sobre cómo se llevó a cabo el estudio y los resultados generados.

  • Recomendaciones de WAME 2.1: Los autores que envíen un artículo en el que se haya utilizado un chatbot/AI para redactar un nuevo texto deben indicar dicho uso en el agradecimiento; se deben especificar todas las indicaciones utilizadas para generar un nuevo texto, o para convertir texto o indicaciones de texto en tablas o ilustraciones.
  • Recomendación 2.2 de WAME: Cuando se utilice una herramienta de IA, como un chatbot, para realizar o generar trabajo analítico, ayudar a informar de los resultados (por ejemplo, generando tablas o figuras) o escribir códigos informáticos, esto debe indicarse en el cuerpo del artículo, tanto en el resumen como en la sección de métodos. Con el fin de permitir el escrutinio científico, incluida la replicación y la identificación de falsificaciones, debe facilitarse la secuencia de comandos completa utilizada para generar los resultados de la investigación, la hora y la fecha de la consulta, así como la herramienta de IA utilizada y su versión.

Recomendación 3 de WAME: Los autores son responsables del material proporcionado por un chatbot en su artículo (incluida la exactitud de lo presentado y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluidas las fuentes originales del material generado por el chatbot). Los autores de artículos escritos con la ayuda de un chatbot son responsables del material generado por el chatbot, incluida su exactitud. Hay que tener en cuenta que el plagio es «la práctica de tomar el trabajo o las ideas de otra persona y hacerlas pasar por propias», y no sólo la repetición literal de un texto previamente publicado. Es responsabilidad del autor asegurarse de que el contenido refleja sus datos e ideas y no es plagio, fabricación o falsificación. De lo contrario, ofrecer dicho material para su publicación, independientemente de cómo se haya escrito, puede constituir una falta de ética científica. Del mismo modo, los autores deben asegurarse de que todo el material citado se atribuye adecuadamente, incluyendo citas completas, y que las fuentes citadas apoyan las declaraciones del chatbot. Dado que un chatbot puede estar diseñado para omitir fuentes que se opongan a los puntos de vista expresados en sus resultados, es responsabilidad de los autores encontrar, revisar e incluir tales puntos de vista contrarios en sus artículos. (Los autores deben identificar el chatbot utilizado y la pregunta específica (enunciado de la consulta) utilizada con el chatbot. Deben especificar qué han hecho para mitigar el riesgo de plagio, ofrecer una visión equilibrada y garantizar la exactitud de todas sus referencias.

Recomendación 4 de WAME: Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de chatbots en la evaluación del manuscrito y la generación de revisiones y correspondencia. Si utilizan chatbots en sus comunicaciones con los autores y entre sí, deben explicar cómo se utilizaron. Los editores y revisores son responsables de cualquier contenido y cita generados por un chatbot. Deben ser conscientes de que los chatbots retienen las instrucciones que se les envían, incluido el contenido del manuscrito, y que proporcionar el manuscrito de un autor a un chatbot viola la confidencialidad del manuscrito enviado.

Recomendación 5 de WAME: Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA. Tales herramientas deben ponerse a disposición de los editores, independientemente de su capacidad para pagarlas, por el bien de la ciencia y del público, y para ayudar a garantizar la integridad de la información sanitaria y reducir el riesgo de resultados adversos para la salud. Muchos editores de revistas médicas utilizan enfoques de evaluación de manuscritos que no fueron diseñados para hacer frente a las innovaciones y las industrias de la IA, incluidos los textos e imágenes plagiados manipulados y los documentos generados en papel. Ya han estado en desventaja al tratar de diferenciar lo legítimo de lo fabricado, y los chatbots llevan este desafío a un nuevo nivel. Los editores necesitan acceder a herramientas que les ayuden a evaluar los contenidos con eficacia y precisión. Esto es especialmente importante para los editores de revistas médicas, donde las consecuencias adversas de la desinformación incluyen posibles daños a las personas.

¿Puede aparecer ChatGPT cómo autor o coautor de artículos científicos?

Stokel-Walker, Chris. «ChatGPT Listed as Author on Research Papers: Many Scientists Disapprove». Nature 613, n.o 7945 (18 de enero de 2023): 620-21. https://doi.org/10.1038/d41586-023-00107-z.

Varios científicos han expresado su desaprobación al ver que ChatGPT, la herramienta de IA, figura como coautor en al menos cuatro artículos de investigación. Esta situación ha llevado a las editoriales a tomar medidas rápidas para regular su uso.

El popular chatbot de inteligencia artificial ChatGPT ha hecho su entrada oficial en el ámbito de la literatura científica y ha sido citado como autor en al menos cuatro artículos y preprints. Este hecho ha suscitado debates entre directores de revistas, investigadores y editores sobre la inclusión de herramientas de IA en publicaciones académicas y la conveniencia de citar al bot como autor. Las editoriales se apresuran a establecer políticas para el chatbot, que OpenAI, una empresa tecnológica con sede en San Francisco (California), presentó en noviembre como herramienta de libre acceso.

Al ser consultados por el equipo de noticias de Nature, los editores y servidores de preprints coinciden unánimemente en que los sistemas de IA como ChatGPT no cumplen los requisitos para figurar como autores de estudios, ya que no pueden asumir la responsabilidad del contenido y la integridad de los artículos científicos. Sin embargo, algunos editores sugieren que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores. Es importante señalar que el equipo de noticias de Nature opera con independencia del equipo de su revista y de su editor, Springer Nature.

En un caso concreto mencionado, un editor informó a Nature de que ChatGPT había sido citado por error como coautor, y la revista tomaría medidas correctoras para rectificar el error.

En un preprint publicado en el repositorio médico medRxiv, ChatGPT aparece como uno de los 12 autores de un estudio que explora su uso en la educación médica. Richard Sever, cofundador del repositorio y de su sitio hermano bioRxiv, reconoce que la conveniencia de utilizar y atribuir herramientas de IA como ChatGPT en la investigación es un tema de debate. Sugiere que las convenciones relativas a los créditos de las herramientas de IA podrían evolucionar con el tiempo.

Sever subraya la necesidad de diferenciar entre el papel formal de un autor en un manuscrito académico y el concepto general de autor como redactor del documento. Dado que los autores son legalmente responsables de su trabajo, cree que sólo deben figurar en la lista las personas físicas. No obstante, reconoce que se han dado casos de personas que han intentado incluir como autores a entidades no humanas, como mascotas o personajes de ficción, pero considera que se trata más de una cuestión de comprobación y verificación que de una cuestión de política. Victor Tseng, autor correspondiente del preprint, no hizo comentarios cuando se le contactó.

En un número reciente de Nurse Education in Practice, un editorial citaba por error a ChatGPT como coautora junto a Siobhan O’Connor, investigadora en tecnología sanitaria de la Universidad de Manchester. Roger Watson, redactor jefe de la revista, reconoció el error y declaró que se corregiría con prontitud. Atribuyó el descuido al diferente sistema de gestión de los editoriales en comparación con los artículos de investigación.

Alex Zhavoronkov, director general de Insilico Medicine, una empresa de Hong Kong dedicada al descubrimiento de fármacos mediante IA, citó a ChatGPT como coautor en un artículo publicado en la revista Oncoscience. Zhavoronkov mencionó que su empresa ha publicado más de 80 artículos generados por herramientas de IA generativa y expresó su satisfacción por el rendimiento de ChatGPT a la hora de redactar un artículo de alta calidad en comparación con herramientas de IA anteriores.

En cuanto al cuarto artículo, fue coescrito por un chatbot anterior llamado GPT-3 y se publicó inicialmente en el servidor francés de preprints HAL en junio de 2022. La coautora, Almira Osmanovic Thunström, neurobióloga del Hospital Universitario Sahlgrenska de Gotemburgo (Suecia), mencionó que, tras recibir comentarios de los revisores, reescribió el artículo y lo envió a una segunda revista. Tras las revisiones, el artículo fue aceptado para su publicación con GPT-3 como autor.

Política editorial

Se están elaborando y revisando las políticas de las editoriales sobre el uso de ChatGPT y otras herramientas de IA en la autoría. Los redactores jefe de Nature y Science, Magdalena Skipper y Holden Thorp, respectivamente, afirman que ChatGPT no cumple los criterios de autoría debido a la falta de responsabilidad que puede atribuirse a los grandes modelos lingüísticos (LLM). Se recomienda a los autores que utilicen LLM durante el desarrollo de un artículo que documenten su uso en las secciones de métodos o agradecimientos, según proceda.

Taylor & Francis, una editorial con sede en Londres, está revisando actualmente su política sobre la autoría de la IA. Sabina Alam, Directora de Ética e Integridad Editorial, está de acuerdo en que los autores son responsables de la validez e integridad de su trabajo y deben reconocer el uso de los LLM en la sección de agradecimientos. Sin embargo, Taylor & Francis aún no ha recibido ningún envío que acredite a ChatGPT como coautor.

El consejo del servidor de preprints arXiv, que se centra en las ciencias físicas, ha mantenido debates internos y está avanzando hacia el establecimiento de un enfoque para el uso de IA generativas. Steinn Sigurdsson, director científico y astrónomo de la Universidad Estatal de Pensilvania, subraya que una herramienta de software no puede figurar como autor, ya que no puede dar su consentimiento a las condiciones de uso y al derecho a distribuir contenidos. Hasta el momento no se ha identificado ningún preprints arXiv en el que ChatGPT figure como coautor, y próximamente se darán orientaciones a los autores sobre esta cuestión.

La ética de la IA generativa

La ética que rodea a la IA generativa, como ChatGPT, plantea importantes consideraciones. Matt Hodgkinson, responsable de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido, señala que las directrices de autoría vigentes indican que ChatGPT no debe ser acreditado como coautor. Aunque es posible que las herramientas de IA realicen una contribución académica significativa, el aspecto crucial es su capacidad para aceptar la coautoría y asumir la responsabilidad del estudio o de su contribución específica. Aquí es donde el concepto de conceder la coautoría a las herramientas de IA encuentra obstáculos.

Alex Zhavoronkov, director general de Insilico Medicine, explica que al intentar utilizar ChatGPT para escribir artículos más técnicos, se quedó corto. La IA genera a menudo afirmaciones que pueden no ser exactas, y hacer la misma pregunta varias veces puede dar respuestas diferentes. Esto suscita preocupación por el posible uso indebido del sistema en el mundo académico, ya que personas sin conocimientos especializados podrían intentar redactar artículos científicos utilizando contenidos generados por la IA.

Inteligencia artificial y autoría

Alysa Levene. «Artificial Intelligence and Authorship» COPE: Committee on Publication Ethics, 23 de febrero de 2023. https://publicationethics.org/news/artificial-intelligence-and-authorship.

La evolución de la inteligencia artificial y los robots conversacionales plantea interrogantes sobre el papel del autor y cómo se define en este contexto. Con la llegada de los modelos lingüísticos de gran escala, como ChatGPT de OpenAI, se ha generado un debate sobre la autoría y la creación de contenido generado por inteligencia artificial.


Los modelos de inteligencia artificial, como ChatGPT de OpenAI, plantean preguntas sobre el concepto de autoría. Estos robots, alimentados por grandes modelos lingüísticos y entrenados con vastos bancos de texto, tienen la capacidad de generar respuestas en función de la probabilidad de combinaciones de palabras, estructuras de frases y temas.

El impacto de ChatGPT y otros sistemas similares en el mercado ha sido notable. La gente ha compartido sus experiencias de interacción con ChatGPT, desde solicitar recomendaciones sobre otros robots de inteligencia artificial para escribir y obtener respuestas hasta pedirle a ChatGPT que escriba una conferencia.

Estas situaciones plantean preguntas más amplias sobre el papel de los robots de inteligencia artificial en la creación de contenido y su impacto en la noción tradicional de autoría. A medida que la tecnología avanza, es importante explorar los límites y las implicaciones éticas de estas innovaciones, considerando cómo se complementan o desafían la creatividad humana y la autoría individual.

La cuestión de quién es el autor en estas interacciones plantea un desafío interesante. Si bien los modelos lingüísticos son herramientas poderosas y capaces de producir contenido original, su capacidad de crear está limitada a lo que han aprendido de los datos de entrenamiento. La responsabilidad de la autoría puede recaer en los desarrolladores de la inteligencia artificial, los usuarios que interactúan con ella o incluso en la propia máquina.

Las empresas que producen estas herramientas de aprendizaje automático de inteligencia artificial son muy claras sobre la situación legal y ética de sus productos. La compañía Bloom, una plataforma de IA de LLM, afirma en sus especificaciones que «el uso del modelo en situaciones de alto riesgo está fuera de su alcance… El modelo no está diseñado para decisiones críticas ni para usos con consecuencias materiales en la vida o el bienestar de una persona».. Esto incluye áreas como la atención médica, los juicios legales, las finanzas o la puntuación individual, que a menudo están representadas en las carteras de las editoriales académicas. El descargo de responsabilidad de la empresa Bloom también hace hincapié en la necesidad de que los usuarios indirectos estén informados cuando trabajen con contenidos generados por el modelo lingüístico.

Del mismo modo, en enero de 2023, la Asociación Mundial de Editores Médicos (WAME, por sus siglas en inglés) publicó una respuesta en la que abordaba el uso de los modelos lingüísticos en las publicaciones académicas y hacía una recomendación similar. ChatGPT reconoce sus propias limitaciones y ha declarado que no existe ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre que se utilice de forma adecuada y ética. En algunos casos, ChatGPT ha reconocido incluso que no cumple todos los criterios de autoría señalados por el Comité Internacional de Editores de Revistas Médicas (ICMJE).

Tanto las directrices del ICMJE como las del Comité de Ética en las Publicaciones (COPE) coinciden en que los bots de IA no deben ser considerados autores, ya que carecen de capacidad legal, no pueden tener derechos de autor, ser considerados responsables o aprobar un trabajo de investigación como original. Editoriales como Springer Nature y Taylor & Francis también han publicado declaraciones instando a los autores a revelar cualquier interacción con la IA en sus métodos o secciones de agradecimiento.

Está claro que estas empresas y organizaciones reconocen la necesidad de transparencia y uso responsable de las tecnologías de IA en la investigación y la escritura. Subrayan la importancia de distinguir entre autores humanos y contenidos generados por IA, al tiempo que promueven las prácticas éticas y la divulgación en la publicación académica.

Es importante señalar que un bot de IA no se preocupa de si la información que devuelve es «verdadera»; su atención se centra en la verosimilitud. Este fenómeno surge porque los robots de IA carecen del concepto de fiabilidad, replicabilidad o «verdad». Su propósito es proporcionar respuestas que tengan un sentido probabilístico basado en la gama de hechos y afirmaciones de sus datos de entrenamiento. Aunque puede haber casos en los que sólo haya una respuesta a una pregunta, en muchos casos puede haber múltiples respuestas posibles, todas ellas igualmente probables desde la perspectiva del bot. Esta capacidad de afirmar diferentes respuestas a la misma pregunta puede provocar a veces una reacción muy humana de ofensa o confusión.

Como se indica en las especificaciones de Bloom, el modelo produce contenidos que pueden parecer factuales, pero no necesariamente correctos. Comprender estas limitaciones es crucial a la hora de utilizar la IA. La evaluación crítica y el uso responsable de la información generada por la IA son vitales para garantizar su aplicación adecuada en diversos contextos, incluida la investigación académica.

De este modo, los editores y las editoriales tendrán que confiar aún más en la responsabilidad de los autores y en una rigurosa revisión por pares para detectar y solucionar tales problemas. Merece la pena señalar que la revisión por pares no siempre descubre fallos basados en los resultados y no en la metodología

Algunos usuarios han expresado su preocupación por el hecho de que ChatGPT atribuya erróneamente o fabrique citas, lo que indica un enfoque potencialmente poco estricto respecto al plagio en sus datos de entrenamiento. Por otra parte, a medida que el modelo aprende de conjuntos de datos más refinados, sus resultados pueden ser más creativos.

Estas observaciones ponen de relieve la naturaleza evolutiva de los contenidos generados por IA y la necesidad de una evaluación, un perfeccionamiento y un conocimiento contextual continuos a la hora de utilizar estas herramientas en las publicaciones académicas. Sigue siendo esencial equilibrar las ventajas que ofrece la IA con la evaluación crítica y el juicio humano para garantizar la integridad y la calidad de la investigación y la publicación académicas.

Un robot -por muy bien entrenado que esté y con el grado de claridad que le aporte la distancia respecto a la desordenada experiencia humana de investigar, planificar y escribir- no puede entender lo que escribe. En pocas palabras, no puede ser responsable. Como ya hemos visto, los robots han sido entrenados para decirlo explícitamente.

En la actualidad, la inteligencia artificial (IA) se presenta como una herramienta sorprendente, siempre y cuando se utilice de manera ética y para fines específicos. Es probable que se convierta en una herramienta indispensable. Sin embargo, existen consideraciones más amplias que deben ser cuidadosamente analizadas en cuanto a cómo y cuándo se debe emplear en la literatura académica, sin mencionar los posibles sesgos y contenido desagradable que pueda estar presente en su material de entrenamiento, lo cual afectará lo que produzca.

Incluso es posible que en el futuro se utilicen herramientas de IA para entrenar mejor a los robots en la escritura de un lenguaje auténticamente humano, siempre y cuando también se les instruya en prácticas éticas. Sin embargo, ¿deberíamos considerar a la IA como una autora legítima? El mundo de la ética en la publicación académica está empezando a rechazar firmemente esa idea, y es fácil entender por qué.

El tiempo dedicado a la lectura por los jóvenes es de 13 minutos al día frente a los 40 minutos dedicados por los mayores de 75 años

«American Time Use Survey Summary – 2022 A01 Results». Accedido 26 de junio de 2023. https://www.bls.gov/news.release/atus.nr0.htm.

PDF

En un día normal, los mayores de 75 años dedican 40 minutos a la lectura, mientras que los de 15 a 19 años leen durante 13 minutos. Por el contrario, las personas de 15 a 19 años dedicaron 1 hora y 38 minutos a jugar o utilizar el ordenador en un día normal, mientras que los mayores de 75 años dedicaron 29 minutos.

La encuesta «American Time Use Survey (ATUS)» sobre el empleo del tiempo en Estados Unidos 2022, incluye datos sobre el tiempo dedicado a la lectura por interés personal. la encuesta se tarda entre 15 y 20 minutos por teléfono. En la misma se pide a los encuestados que recuerden cómo emplearon su tiempo durante el período de 24 horas del día anterior a la entrevista.

Dedican aproximadamente el 37% de su tiempo a dormir, el 22% al ocio y el deporte, el 8% a las actividades domésticas (incluidos los viajes), el 6% al cuidado de los hijos y los padres, y alrededor del 5% a comer y beber.

Los estudios han demostrado que el tiempo de ocio -tiempo libre no relacionado con el trabajo o las tareas domésticas- es importante para nuestra salud y felicidad. El estadounidense medio tiene unas 5 horas de ocio al día y la cantidad óptima de tiempo libre es de unas 2,5 horas. Con menos, la gente se siente estresada; con más, ociosa.

El tiempo dedicado a la lectura por interés personal y a los juegos o al ordenador por ocio varía mucho según la edad. En un día normal, las personas de 75 años o más dedicaban 40 minutos a la lectura, mientras que las de 15 a 19 años leían durante 13 minutos. Por el contrario, las personas de 15 a 19 años dedicaron 1 hora y 38 minutos a jugar o utilizar el ordenador en un día normal, mientras que los mayores de 75 años dedicaron 29 minutos.

la IA supone un riesgo para la humanidad, según la mayoría de los estadounidenses: la encuesta de Reuters/Ipsos revela divisiones religiosas y políticas sobre la IA.

Tong, Anna, y Anna Tong. «AI Threatens Humanity’s Future, 61% of Americans Say: Reuters/Ipsos Poll». Reuters, 17 de mayo de 2023, sec. Technology. https://www.reuters.com/technology/ai-threatens-humanitys-future-61-americans-say-reutersipsos-2023-05-17/.

La mayoría de los estadounidenses cree que el auge de la tecnología de inteligencia artificial podría poner en peligro el futuro de la humanidad, según una encuesta de Reuters/Ipsos publicada el miércoles. La encuesta reveló que más de dos tercios de los encuestados están preocupados por los efectos adversos de la IA, mientras que el 61% la considera una amenaza potencial para la civilización.

La encuesta en línea, realizada del 9 al 15 de mayo, recogió las opiniones de 4.415 adultos estadounidenses. Tiene un intervalo de credibilidad (medida de la precisión) de más o menos dos puntos porcentuales.

Los resultados de la encuesta se producen en medio de la expansión del uso de la IA generativa en la educación, la administración pública, la medicina y la empresa, provocada en parte por el crecimiento explosivo de ChatGPT de OpenAI, que, según se informa, es la aplicación de software de más rápido crecimiento de todos los tiempos. El éxito de la aplicación ha desencadenado una carrera de rumores tecnológicos entre gigantes de la tecnología como Microsoft y Google, que se benefician de tener algo nuevo y de moda para aumentar potencialmente el precio de sus acciones.

Los temores sobre la IA, justificados o no, han retumbado últimamente en el discurso público debido a sucesos de gran repercusión como la carta de la «pausa de la IA» y la dimisión de Geoffery Hinton de Google. (Por temor a la «pérdida de control», los críticos de la IA piden una pausa de 6 meses en su desarrollo*) En un caso reciente de alto perfil de aprensión a la IA, el consejero delegado de OpenAI, Sam Altman, testificó el martes ante el Congreso de EE.UU., expresando su preocupación por el posible mal uso de la tecnología de IA y pidiendo una regulación que, según los críticos, podría ayudar a su empresa a mantener su liderazgo tecnológico y suprimir la competencia.

Los legisladores parecen compartir algunas de estas preocupaciones, como el senador demócrata Cory Booker: «No hay forma de meter a este genio en la botella. A nivel mundial, esto está explotando», informó Reuters.

Este mensaje negativo parece estar surtiendo efecto. Los temores de los estadounidenses sobre el potencial dañino de la IA superan con creces el optimismo sobre sus beneficios, y los que predicen resultados adversos superan a los que no lo hacen en una proporción de tres a uno. «Según los datos, el 61% de los encuestados cree que la IA plantea riesgos para la humanidad, mientras que sólo el 22% está en desacuerdo y el 17% no está seguro», escribió Reuters.

La encuesta también reveló una división política en la percepción de la IA: el 70% de los votantes de Donald Trump expresaron mayor preocupación por la IA, frente al 60% de los votantes de Joe Biden. En cuanto a las creencias religiosas, los cristianos evangélicos estaban más «totalmente de acuerdo» en que la IA plantea riesgos para la civilización humana, con un 32%, frente al 24% de los cristianos no evangélicos.

* Landon Klein, director de política estadounidense del Future of Life Institute, la organización que está detrás de una carta abierta, firmada conjuntamente por Elon Musk, consejero delegado de Tesla (TSLA.O), en la que se exige una pausa de seis meses en la investigación de la IA. «Vemos el momento actual similar al comienzo de la era nuclear, y tenemos el beneficio de la percepción pública que es consistente con la necesidad de tomar medidas».

El catálogo de la biblioteca de Dallas se ha reestablecido después de dos meses de haber sido secuestrado (ransomware)

«Dallas library online catalog restored almost two months after ransomware attack». Accedido 26 de junio de 2023. https://www.dallasnews.com/news/politics/2023/06/23/dallas-library-online-catalog-restored-almost-two-months-after-ransomware-attack/.

Después de casi dos meses desde el ataque de ransomware, finalmente se ha restablecido el catálogo en línea de las bibliotecas de Dallas. Ahora, los residentes tienen la capacidad de procesar devoluciones de libros, explorar el catálogo en línea y solicitar tarjetas de biblioteca.

La directora de la Biblioteca Pública de Dallas, Jo Guidice, ha anunciado que se necesitan voluntarios para ayudar en la tarea de reorganizar miles de libros y otros artículos que se han acumulado durante el período en el que los trabajadores no pudieron procesarlos. Además, se espera que algunos de estos materiales sean devueltos después de que las autoridades instaran a la población a retenerlos tras el ciberataque ocurrido el 3 de mayo.

La ciudad informó que varios servidores fueron afectados por el ransomware a principios de mayo, lo que llevó a tomar la decisión de desconectar otros servidores como medida preventiva para evitar la propagación del software malicioso. Esta acción provocó la interrupción de varios departamentos y servicios municipales, como la incapacidad de los residentes para pagar sus facturas de agua en línea o presentar quejas no urgentes a través de la aplicación 311 de la ciudad.

La inteligencia artificial y el futuro de la enseñanza y el aprendizaje

Artificial Intelligence and the Future of Teaching and Learning. The U.S. Department of Education Office of Educational Technology, 2023

Texto completo

El nuevo informe político de la Oficina de Tecnología Educativa del Departamento de Educación de los Estados Unidos, Artificial Intelligence and the Future of Teaching and Learning: Perspectivas y recomendaciones, aborda la clara necesidad de compartir conocimientos, implicar a los educadores y perfeccionar los planes y las políticas tecnológicas para el uso de la inteligencia artificial (IA) en la educación. El informe describe la IA como un conjunto de tecnologías en rápido avance para reconocer patrones en los datos y automatizar acciones, y orienta a los educadores para que comprendan lo que estas tecnologías emergentes pueden hacer para avanzar en los objetivos educativos, al tiempo que evalúan y limitan los riesgos clave.

Las bibliotecas y los bibliotecarios en la obra de Haruki Murakami

El novelista japonés Haruki Murakami en varias ocasiones ha tratado el tema de las bibliotecas en sus novelas. Las bibliotecas que aparecen es su obra a frecuentemente se presentan como espacios misteriosos y enigmáticos, donde los personajes principales encuentran refugio, conocimiento y conexiones inesperadas.

En «Tokio Blues» (conocida también como «Norwegian Wood») aunque la biblioteca no juega un papel prominente en la trama. Sin embargo, hay una breve mención de la biblioteca en el contexto de las experiencias del protagonista, Toru Watanabe, durante sus años universitarios. En la historia, Toru Watanabe asiste a la Universidad de Tokio y pasa tiempo en la biblioteca universitaria mientras estudia y se sumerge en su propio mundo interior afirmando «La biblioteca es mi refugio. Allí puedo perderme entre las páginas de los libros y encontrar respuestas a preguntas que ni siquiera sabía que tenía.»

En su novela «Kafka en la orilla«, por ejemplo, la trama trata de un un joven llamado Kafka Tamura que huye de su casa para vivir en una biblioteca pública. Esta biblioteca se convierte en un lugar de introspección y descubrimiento para el personaje, donde encuentra respuestas a preguntas existenciales y pistas sobre su identidad. La bibliotecaria llamada Oshima, es un personaje andrógino y sabio que ofrece consejos y apoyo emocional a Kafka, se trata de una persona inteligente, tranquila y comprensiva con un vasto conocimiento y amor por la literatura. En la obra se dice:

«La biblioteca era como un segundo hogar. O quizá más como un verdadero hogar, más que el lugar en el que vivía. Al ir todos los días, llegué a conocer a todas las bibliotecarias que trabajaban allí. Sabían mi nombre y siempre me saludaban. Pero yo era muy tímido y apenas podía responder».

Haruki Murakami «Kafka en la orilla»

En la novela «Crónica del pájaro que da cuerda al mundo» de Haruki Murakami, aunque la biblioteca es un elemento significativo en la historia. El protagonista, conocido como «El Ratón», trabaja como bibliotecario en una biblioteca pública en Tokio. La biblioteca en esta novela se describe como un lugar tranquilo y acogedor, lleno de libros y conocimiento. Es un refugio para El Ratón, donde encuentra consuelo y una sensación de propósito en su trabajo. A lo largo de la historia, la biblioteca se convierte en un símbolo de estabilidad y conexión con el mundo exterior para el protagonista. Además, en la biblioteca, El Ratón se encuentra con diversas personas que buscan libros y conocimientos específicos, y sus interacciones con ellos desencadenan encuentros y eventos significativos en la trama. La biblioteca actúa como un punto de encuentro para diferentes personajes y sus historias se entrelazan en ese espacio. La biblioteca en «Crónica del pájaro que da cuerda al mundo» representa el poder de los libros y la importancia del conocimiento para el desarrollo personal. esta obra se afirma «Los bibliotecarios son como guardianes de los secretos del universo. Son quienes nos guían a través de los laberintos de la información y nos ayudan a descubrir nuevas perspectivas.»

En la novela «El fin del mundo y un despiadado país de las maravillas» de Haruki Murakami, la biblioteca juega un papel destacado en la trama. El protagonista, un hombre llamado Toru Okada, se ve inmerso en una serie de sucesos extraños y surrealistas después de que su esposa desaparece misteriosamente. Durante su búsqueda para encontrar a su esposa, Toru Okada se adentra en un mundo subterráneo y se encuentra con una biblioteca oculta. Esta biblioteca se presenta como un lugar mágico y enigmático donde los personajes encuentran respuestas a preguntas profundas y se enfrentan a desafíos metafóricos. Dentro de la biblioteca, Okada se encuentra con extraños personajes, como el enigmático hombre sin cara.

En «Sputnik, mi amor» aunque las bibliotecas no desempeñan un papel destacado en la trama principal. Sin embargo, hay algunas menciones y referencias a las bibliotecas a lo largo de la historia: «Las bibliotecas son lugares sagrados. Son templos del conocimiento y la imaginación.» En la novela, la protagonista, Sumire, es una joven escritora en ciernes que tiene pasión por la lectura y la escritura. Por ello, se mencionan brevemente como un lugar donde Sumire busca libros y conocimiento para nutrir su mente y estimular su creatividad. En una ocasión, Sumire describe cómo visita la biblioteca para leer libros y realizar investigaciones para sus escritos. Aunque no se profundiza en las experiencias de Sumire en la biblioteca, esta breve mención resalta su amor por la literatura y su deseo de explorar diferentes fuentes de inspiración.

En «1Q84», Murakami presenta una biblioteca clandestina que existe en un mundo paralelo llamado «1Q84». Esta biblioteca es un lugar oculto donde se guardan libros prohibidos y secretos. Los personajes principales, Tengo y Aomame, se encuentran atraídos hacia esta biblioteca y se enfrentan a peligros y revelaciones mientras exploran sus misterios. Tengo Kawana, trabaja como profesor de matemáticas en una escuela y también como bibliotecario en una institución académica. Su papel como bibliotecario es secundario, pero muestra cómo los personajes de Murakami a menudo tienen conexiones con el mundo de los libros y la información.

La biblioteca es un portal a mundos infinitos. Allí puedo viajar a través de las páginas y sumergirme en historias que me transportan más allá de la realidad.»

Haruki Murakami «1Q84»

«La biblioteca secreta» de Haruki Murakami» es un cómic bellamente ilustrado por Kat Menschik que captura los mundos oníricos y subrealistas del aclamado autor japonés. Siguiendo la línea de obras como «Kafka en la orilla» y «El fin del mundo y un despiadado país de las maravillas» En este cómic, un joven visita regularmente la biblioteca pública de su ciudad. En una de sus visitas, la bibliotecaria le indica que baje al sótano y pregunte por la habitación 207. Lo que sucede allí trasciende el mundo conocido. Se encuentra con un anciano bibliotecario, quien parece más el guardián de mazmorras, y que lo introduce en el laberinto de la biblioteca. Dentro del laberinto, el joven se encuentra con personajes como el hombre oveja, una chica muda y un perro de ojos de diamante. Estos personajes y las historias que los envuelven se alejan de la realidad cotidiana y se acercan al laberinto propio de los universos imaginados por Borges.

En el libro de cuentos «Después del terremoto», uno de los relatos titulado «El niño de la tele» presenta a un bibliotecario llamado Junpei que trabaja en una biblioteca pública y se enfrenta a una situación inusual en la que un niño misterioso aparece en su televisión y le hace preguntas. Este cuento explora temas como la soledad y la conexión humana.

En general, Murakami utiliza las bibliotecas como escenarios evocadores donde los personajes pueden sumergirse en el conocimiento, reflexionar sobre sus vidas y conectarse con otros personajes de manera profunda e inesperada. Los bibliotecarios en las obras de Murakami a menudo tienen una presencia enigmática y están asociados con el conocimiento y la sabiduría, sirviendo como guías que a veces tienen conocimientos especiales o acceso a información oculta crucial para los personajes principales Estas representaciones de bibliotecas en sus novelas refuerzan la importancia de la literatura y el poder de las palabras para influir en nuestras vidas.

Las bibliotecas siguen siendo el escenario de mis crímenes favoritos

Una vez llevé una abultada bolsa de papel
llena de libros a la Biblioteca Pública de Brooklyn
los sábados por la mañana,
pasando mi carné de la biblioteca por la ranura metálica
en la parte trasera de la caja.

Las bibliotecas siguen siendo el escenario
de mis crímenes favoritos:
La colocación de un libro sobre una mesa,
sus lados lisos hacia abajo sobre una pila de libros,
es una travesura tranquila,
como girar el pomo de la puerta de una habitación vacía
o robar una cuchara en un café.

Pero también hay delitos graves,
los que no se encuentran en la Constitución
o en los Estatutos Revisados de Nueva York:
Reubicar un libro, por ejemplo,
en la sección equivocada-
una violación de la confianza,
un negocio sucio, como repartir cartas
en una torcida partida de gin rummy.

O leer un libro de referencia
en la sala de referencia
sin permiso,
o usar un lápiz
en lugar de un bolígrafo
para escribir su nombre
en el libro de «Sign-Out»,
un delito menor con una moraleja
que no se encuentra en los mandamientos.

Así que debemos amar a los bibliotecarios,
no sólo por las conversaciones tácitas
que tenemos con ellos,
apoyados en el mostrador,
sino también por sus reglas
que nos exiliarían
a un témpano de ignorancia
si no fueran
bibliotecarios.

(Las bibliotecas están llenas de gente
leyendo libros sobre retretes.
No se me ocurre mejor lugar
para escribir un poema que una biblioteca.
Miras hacia arriba y todos los libros
están ahí, esperando a ser leídos.
Coges uno de la estantería,
te sientas a la mesa y empiezas).

¿Y qué es una biblioteca
sino un lugar de espera
ya sea para que el bibliotecario selle tu libro
o a que florezca un romance
en las estanterías, o a que un ladrón
deslice un volumen en una bolsa,
o que la cara abierta
de un libro te detenga en seco
al doblar la esquina
a la siguiente estantería
del siguiente pasillo,
mientras te tambaleas
a una silla y lo mantienes abierto
la primera página y oyes
las palabras cantando
entra, entra
y la llamas
una biblioteca pública.

«Library» de Billy Collins

Su voz, suave como el susurro de un río, se deslizaba por el aire, narrando historias olvidadas

«El aroma del jazmín se deslizaba por los rincones de la antigua casa, susurrando cuentos antiguos al viento. Las sombras danzaban en las paredes, entrelazando sus dedos oscuros con los hilos de la noche. Y allí, en medio de ese misterio encantado, se encontraba ella: una mujer de mirada profunda y cabellos de ébano. Su voz, suave como el susurro de un río, se deslizaba por el aire, narrando historias olvidadas de tiempos remotos.

En sus manos, sostenía un viejo libro encuadernado en cuero gastado. Sus páginas amarillentas guardaban secretos y promesas, esperando ser descubiertos por aquellos que se atrevieran a adentrarse en su laberinto de palabras. Con cada página que volvía, el pasado cobraba vida y los personajes tomaban forma, danzando entre los renglones como si fueran seres de carne y hueso.

La noche se desplegaba como un manto estrellado sobre el horizonte, y la mujer seguía sumergida en su lectura, viajando a mundos lejanos y desconocidos. Su mente se convertía en un remolino de imágenes, donde los sueños y la realidad se fundían en una danza etérea.»

Alberto Ruy Sánchez «En los labios del agua»