Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

 Inteligencia artificial: cultura y bibliotecas.

Narea Cortés, Álvaro Inteligencia artificial: Cultura y bibliotecas. Serie Bibliotecología y Gestión de Información, 2023, n. 123, pp. 1-34.

Texto completo

En el presente trabajo exploratorio se analiza la definición de Inteligencia Artificial (IA) y el rol que cumplen los datos para alimentar los sistemas decisionales, teniendo presente que una biblioteca no guarda datos sino que identifica las relaciones entre estos y realiza un trabajo constante de verificación. Evidencia la patología de los sistemas inteligentes en el mundo actual y la falta de ética humana, con ejemplos que advierten sobre ello. Indica cómo la Inteligencia Artificial afectará los empleos del futuro y cómo se relaciona con la cultura y las bibliotecas.

A los muertos en la biblioteca

Una casa con muchas ventanas, en un pueblo de un valle,
alberga una biblioteca de libros queridos ya muertos,
tarareando débilmente para sí misma una elegía,
El solitario y pequeño Megrim de los Muertos.

Su laberinto de estanterías, sus espacios abarrotados,
resuenan con el sonido de todas sus pérdidas,
Sus libros antiguos con caras amarillas y descoloridas
Están llenos del polvo de cursos interminables.

Pero aún así, algunos visitantes vienen a hojear,
acariciando los libros con reverente cuidado,
Como para extraer de sus silenciosos votos
Los espíritus de los muertos que una vez estuvieron allí.

Así que entremos con corazones humildes,
y hablemos en voz baja y con cuidado,
Porque aquí los muertos susurran sus antiguas artes,
Y la biblioteca está viva con sus gemidos silenciosos.


«To the Dead in the Library» de Richard Wilbur

Richard Wilbur, poeta estadounidense y ganador del Premio Pulitzer, dedicó este poema a aquellos que han dejado su legado en las páginas de los libros de la biblioteca.

Una visita a la biblioteca

«Una visita a la biblioteca»

Sobre este escenario, amigo mío, en tiendas como estas
Con sabios, artistas, líderes de compañías,
Malgasté la mitad de mi juventud, o más, o menos,
Las artes con todos sus adornos, habitaron en tiendas
Como esta humilde estructura podía ofrecer.

Aquí, con rostros serenos y ojos penetrantes,
Firmé amistad con todas las dulces artes,
Y una veneración tranquila y abierta
Me unió a los grandes pensadores del pasado:
Aquí encontré solaz en mis días más oscuros.

En este refugio bendito, este precioso templo,
Aquí, en soledad, hablé con mis amigos;
Y a medida que vagaba por los estantes,
La elocuencia, la sabiduría y la gracia
Fluían de todos los volúmenes en mis manos.

Aquí, también, pude leer las almas de los hombres,
Y así, enriquecer la mía propia;
Y aprendí de sabios que aún hablan
Más allá del silencio de la muerte:
Aquí, en resumen, encontré la vida eterna.

«A Visit to the Library» de William Wordsworth

William Wordsworth (1770-1850) fue un poeta inglés considerado una de las figuras más importantes del movimiento romántico en la literatura. Nació en Cockermouth, Cumberland, Inglaterra, y pasó gran parte de su vida en el hermoso paisaje de los lagos de la región de Lake District.

Guía del Software libre en bibliotecas

Alonso Arévalo, Julio, y Marlene Quinde Cordero. Guía del Software libre en bibliotecas. Salamanca: Ediciones del Universo, 2021.

Texto completo

PDF

ePub

Actualmente se están siguiendo tendencias y temas emergentes dentro del entorno de la información que brindan una oportunidad única a las bibliotecas y que se alinean perfectamente con la filosofía del código abierto. Estos avances incluyen los movimientos open como: datos abiertos vinculados, gestión “open” de datos de investigación; ciencia abierta; contenido abierto, gobierno abierto, recursos educativos en abierto (REA); crowdsourcing, y, por supuesto, el acceso abierto. Las soluciones de código abierto para la biblioteca encajan muy bien en un momento especialmente más ampliamente abierto que afecta al mundo académico en la actualidad. Las razones por las que las bibliotecas no adoptan o remplazan software libre por software propietario están en la capacitación, conciencia y ausencia de compromiso gubernamental, por lo que los programas de formación profesional deberían incluir cuestiones relativas al software libre en sus currículos profesionales. La motivación que tienen en cuenta las bibliotecas para el uso de un sistema de gestión bibliotecaria de código abierto suele ser principalmente de carácter económico, aunque también se tienen en cuenta otras cuestiones como la mayor flexibilidad que proporcionan los programas de software libre para diseñar sistemas personalizados con que poder satisfacer mejor las necesidades de sus usuarios más inmediatos. Aquí se recogen algunos de los programas de Software Libre y Código abierto clasificados por categorías que son de utilidad para las bibliotecas

Los Autores

Julio Alonso Arévalo y Marlene Quinde Cordero son bibliotecarios de la Universidad de Salamanca en España y de la Universidad de Cuenca en Ecuador, ambos desarrollan diferentes servicios en el mundo de las bibliotecas y de la información

Recomendaciones de la Asociación Mundial de Editores Médicos (WAME) sobre chatbots e inteligencia artificial generativa en relación con las publicaciones académicas

Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications, WAME (World Association of Medical Editors) Revised May 31, 2023.

Los chatbots almacenan la información proporcionada, como el contenido y las instrucciones, y pueden utilizarla en respuestas futuras. Esto implica que el contenido académico generado o editado mediante IA puede permanecer y aparecer en futuras respuestas, lo que aumenta el riesgo de plagio involuntario tanto para el usuario como para los futuros usuarios de la tecnología. Es importante que cualquier persona que necesite mantener la confidencialidad de un documento, incluyendo autores, editores y revisores, sea consciente de este problema antes de considerar el uso de chatbots para editar o generar trabajos.

Sin embargo, los chatbots pueden utilizarse para tareas sencillas de tratamiento de textos (similares a los programas de tratamiento de textos y corrección gramatical), generación de ideas y textos o investigación sustantiva. Las recomendaciones se han adaptado para dar cabida a estas distintas aplicaciones.

1) Solo los humanos pueden ser autores;

2) Los autores deben reconocer las fuentes de sus materiales;

3) Los autores deben asumir la responsabilidad pública de su trabajo;

4) Los editores y revisores deben informar a los autores y entre sí sobre el uso de chatbots en la evaluación de manuscritos, revisiones y correspondencia;

5) Los editores requieren herramientas digitales adecuadas para abordar los efectos de los chatbots en la publicación.

Recomendación 1 de WAME: Los chatbots no pueden ser autores.

Las revistas han empezado a publicar artículos en los que se han utilizado chatbots como Bard, Bing y ChatGPT, y algunas revistas incluyen a los chatbots como coautores. El estatus legal de un autor difiere de un país a otro, pero en la mayoría de las jurisdicciones, un autor debe ser una persona jurídica. Los chatbots no cumplen los criterios de autoría del Comité Internacional de Editores de Revistas Médicas (ICMJE), en particular el de poder dar «la aprobación final de la versión que se publicará» y «ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente.» Ninguna herramienta de IA puede «entender» una declaración de conflicto de intereses, y no tiene capacidad legal para firmar una declaración. Los chatbots no tienen ninguna afiliación independiente de sus desarrolladores. Dado que los autores que presentan un manuscrito deben asegurarse de que todos los nombrados como autores cumplen los criterios de autoría, los chatbots no pueden incluirse como autores.

Recomendación 2 de WAME: Los autores deben ser transparentes cuando se utilizan chatbots y proporcionar información sobre cómo se utilizaron.

Debe indicarse el alcance y el tipo de uso de chatbots en las publicaciones de revistas. Esto es coherente con la recomendación del ICMJE de reconocer la ayuda en la redacción y proporcionar en los Métodos información detallada sobre cómo se llevó a cabo el estudio y los resultados generados.

  • Recomendaciones de WAME 2.1: Los autores que envíen un artículo en el que se haya utilizado un chatbot/AI para redactar un nuevo texto deben indicar dicho uso en el agradecimiento; se deben especificar todas las indicaciones utilizadas para generar un nuevo texto, o para convertir texto o indicaciones de texto en tablas o ilustraciones.
  • Recomendación 2.2 de WAME: Cuando se utilice una herramienta de IA, como un chatbot, para realizar o generar trabajo analítico, ayudar a informar de los resultados (por ejemplo, generando tablas o figuras) o escribir códigos informáticos, esto debe indicarse en el cuerpo del artículo, tanto en el resumen como en la sección de métodos. Con el fin de permitir el escrutinio científico, incluida la replicación y la identificación de falsificaciones, debe facilitarse la secuencia de comandos completa utilizada para generar los resultados de la investigación, la hora y la fecha de la consulta, así como la herramienta de IA utilizada y su versión.

Recomendación 3 de WAME: Los autores son responsables del material proporcionado por un chatbot en su artículo (incluida la exactitud de lo presentado y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluidas las fuentes originales del material generado por el chatbot). Los autores de artículos escritos con la ayuda de un chatbot son responsables del material generado por el chatbot, incluida su exactitud. Hay que tener en cuenta que el plagio es «la práctica de tomar el trabajo o las ideas de otra persona y hacerlas pasar por propias», y no sólo la repetición literal de un texto previamente publicado. Es responsabilidad del autor asegurarse de que el contenido refleja sus datos e ideas y no es plagio, fabricación o falsificación. De lo contrario, ofrecer dicho material para su publicación, independientemente de cómo se haya escrito, puede constituir una falta de ética científica. Del mismo modo, los autores deben asegurarse de que todo el material citado se atribuye adecuadamente, incluyendo citas completas, y que las fuentes citadas apoyan las declaraciones del chatbot. Dado que un chatbot puede estar diseñado para omitir fuentes que se opongan a los puntos de vista expresados en sus resultados, es responsabilidad de los autores encontrar, revisar e incluir tales puntos de vista contrarios en sus artículos. (Los autores deben identificar el chatbot utilizado y la pregunta específica (enunciado de la consulta) utilizada con el chatbot. Deben especificar qué han hecho para mitigar el riesgo de plagio, ofrecer una visión equilibrada y garantizar la exactitud de todas sus referencias.

Recomendación 4 de WAME: Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de chatbots en la evaluación del manuscrito y la generación de revisiones y correspondencia. Si utilizan chatbots en sus comunicaciones con los autores y entre sí, deben explicar cómo se utilizaron. Los editores y revisores son responsables de cualquier contenido y cita generados por un chatbot. Deben ser conscientes de que los chatbots retienen las instrucciones que se les envían, incluido el contenido del manuscrito, y que proporcionar el manuscrito de un autor a un chatbot viola la confidencialidad del manuscrito enviado.

Recomendación 5 de WAME: Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA. Tales herramientas deben ponerse a disposición de los editores, independientemente de su capacidad para pagarlas, por el bien de la ciencia y del público, y para ayudar a garantizar la integridad de la información sanitaria y reducir el riesgo de resultados adversos para la salud. Muchos editores de revistas médicas utilizan enfoques de evaluación de manuscritos que no fueron diseñados para hacer frente a las innovaciones y las industrias de la IA, incluidos los textos e imágenes plagiados manipulados y los documentos generados en papel. Ya han estado en desventaja al tratar de diferenciar lo legítimo de lo fabricado, y los chatbots llevan este desafío a un nuevo nivel. Los editores necesitan acceder a herramientas que les ayuden a evaluar los contenidos con eficacia y precisión. Esto es especialmente importante para los editores de revistas médicas, donde las consecuencias adversas de la desinformación incluyen posibles daños a las personas.

¿Puede aparecer ChatGPT cómo autor o coautor de artículos científicos?

Stokel-Walker, Chris. «ChatGPT Listed as Author on Research Papers: Many Scientists Disapprove». Nature 613, n.o 7945 (18 de enero de 2023): 620-21. https://doi.org/10.1038/d41586-023-00107-z.

Varios científicos han expresado su desaprobación al ver que ChatGPT, la herramienta de IA, figura como coautor en al menos cuatro artículos de investigación. Esta situación ha llevado a las editoriales a tomar medidas rápidas para regular su uso.

El popular chatbot de inteligencia artificial ChatGPT ha hecho su entrada oficial en el ámbito de la literatura científica y ha sido citado como autor en al menos cuatro artículos y preprints. Este hecho ha suscitado debates entre directores de revistas, investigadores y editores sobre la inclusión de herramientas de IA en publicaciones académicas y la conveniencia de citar al bot como autor. Las editoriales se apresuran a establecer políticas para el chatbot, que OpenAI, una empresa tecnológica con sede en San Francisco (California), presentó en noviembre como herramienta de libre acceso.

Al ser consultados por el equipo de noticias de Nature, los editores y servidores de preprints coinciden unánimemente en que los sistemas de IA como ChatGPT no cumplen los requisitos para figurar como autores de estudios, ya que no pueden asumir la responsabilidad del contenido y la integridad de los artículos científicos. Sin embargo, algunos editores sugieren que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores. Es importante señalar que el equipo de noticias de Nature opera con independencia del equipo de su revista y de su editor, Springer Nature.

En un caso concreto mencionado, un editor informó a Nature de que ChatGPT había sido citado por error como coautor, y la revista tomaría medidas correctoras para rectificar el error.

En un preprint publicado en el repositorio médico medRxiv, ChatGPT aparece como uno de los 12 autores de un estudio que explora su uso en la educación médica. Richard Sever, cofundador del repositorio y de su sitio hermano bioRxiv, reconoce que la conveniencia de utilizar y atribuir herramientas de IA como ChatGPT en la investigación es un tema de debate. Sugiere que las convenciones relativas a los créditos de las herramientas de IA podrían evolucionar con el tiempo.

Sever subraya la necesidad de diferenciar entre el papel formal de un autor en un manuscrito académico y el concepto general de autor como redactor del documento. Dado que los autores son legalmente responsables de su trabajo, cree que sólo deben figurar en la lista las personas físicas. No obstante, reconoce que se han dado casos de personas que han intentado incluir como autores a entidades no humanas, como mascotas o personajes de ficción, pero considera que se trata más de una cuestión de comprobación y verificación que de una cuestión de política. Victor Tseng, autor correspondiente del preprint, no hizo comentarios cuando se le contactó.

En un número reciente de Nurse Education in Practice, un editorial citaba por error a ChatGPT como coautora junto a Siobhan O’Connor, investigadora en tecnología sanitaria de la Universidad de Manchester. Roger Watson, redactor jefe de la revista, reconoció el error y declaró que se corregiría con prontitud. Atribuyó el descuido al diferente sistema de gestión de los editoriales en comparación con los artículos de investigación.

Alex Zhavoronkov, director general de Insilico Medicine, una empresa de Hong Kong dedicada al descubrimiento de fármacos mediante IA, citó a ChatGPT como coautor en un artículo publicado en la revista Oncoscience. Zhavoronkov mencionó que su empresa ha publicado más de 80 artículos generados por herramientas de IA generativa y expresó su satisfacción por el rendimiento de ChatGPT a la hora de redactar un artículo de alta calidad en comparación con herramientas de IA anteriores.

En cuanto al cuarto artículo, fue coescrito por un chatbot anterior llamado GPT-3 y se publicó inicialmente en el servidor francés de preprints HAL en junio de 2022. La coautora, Almira Osmanovic Thunström, neurobióloga del Hospital Universitario Sahlgrenska de Gotemburgo (Suecia), mencionó que, tras recibir comentarios de los revisores, reescribió el artículo y lo envió a una segunda revista. Tras las revisiones, el artículo fue aceptado para su publicación con GPT-3 como autor.

Política editorial

Se están elaborando y revisando las políticas de las editoriales sobre el uso de ChatGPT y otras herramientas de IA en la autoría. Los redactores jefe de Nature y Science, Magdalena Skipper y Holden Thorp, respectivamente, afirman que ChatGPT no cumple los criterios de autoría debido a la falta de responsabilidad que puede atribuirse a los grandes modelos lingüísticos (LLM). Se recomienda a los autores que utilicen LLM durante el desarrollo de un artículo que documenten su uso en las secciones de métodos o agradecimientos, según proceda.

Taylor & Francis, una editorial con sede en Londres, está revisando actualmente su política sobre la autoría de la IA. Sabina Alam, Directora de Ética e Integridad Editorial, está de acuerdo en que los autores son responsables de la validez e integridad de su trabajo y deben reconocer el uso de los LLM en la sección de agradecimientos. Sin embargo, Taylor & Francis aún no ha recibido ningún envío que acredite a ChatGPT como coautor.

El consejo del servidor de preprints arXiv, que se centra en las ciencias físicas, ha mantenido debates internos y está avanzando hacia el establecimiento de un enfoque para el uso de IA generativas. Steinn Sigurdsson, director científico y astrónomo de la Universidad Estatal de Pensilvania, subraya que una herramienta de software no puede figurar como autor, ya que no puede dar su consentimiento a las condiciones de uso y al derecho a distribuir contenidos. Hasta el momento no se ha identificado ningún preprints arXiv en el que ChatGPT figure como coautor, y próximamente se darán orientaciones a los autores sobre esta cuestión.

La ética de la IA generativa

La ética que rodea a la IA generativa, como ChatGPT, plantea importantes consideraciones. Matt Hodgkinson, responsable de integridad de la investigación en la Oficina de Integridad de la Investigación del Reino Unido, señala que las directrices de autoría vigentes indican que ChatGPT no debe ser acreditado como coautor. Aunque es posible que las herramientas de IA realicen una contribución académica significativa, el aspecto crucial es su capacidad para aceptar la coautoría y asumir la responsabilidad del estudio o de su contribución específica. Aquí es donde el concepto de conceder la coautoría a las herramientas de IA encuentra obstáculos.

Alex Zhavoronkov, director general de Insilico Medicine, explica que al intentar utilizar ChatGPT para escribir artículos más técnicos, se quedó corto. La IA genera a menudo afirmaciones que pueden no ser exactas, y hacer la misma pregunta varias veces puede dar respuestas diferentes. Esto suscita preocupación por el posible uso indebido del sistema en el mundo académico, ya que personas sin conocimientos especializados podrían intentar redactar artículos científicos utilizando contenidos generados por la IA.

Inteligencia artificial y autoría

Alysa Levene. «Artificial Intelligence and Authorship» COPE: Committee on Publication Ethics, 23 de febrero de 2023. https://publicationethics.org/news/artificial-intelligence-and-authorship.

La evolución de la inteligencia artificial y los robots conversacionales plantea interrogantes sobre el papel del autor y cómo se define en este contexto. Con la llegada de los modelos lingüísticos de gran escala, como ChatGPT de OpenAI, se ha generado un debate sobre la autoría y la creación de contenido generado por inteligencia artificial.


Los modelos de inteligencia artificial, como ChatGPT de OpenAI, plantean preguntas sobre el concepto de autoría. Estos robots, alimentados por grandes modelos lingüísticos y entrenados con vastos bancos de texto, tienen la capacidad de generar respuestas en función de la probabilidad de combinaciones de palabras, estructuras de frases y temas.

El impacto de ChatGPT y otros sistemas similares en el mercado ha sido notable. La gente ha compartido sus experiencias de interacción con ChatGPT, desde solicitar recomendaciones sobre otros robots de inteligencia artificial para escribir y obtener respuestas hasta pedirle a ChatGPT que escriba una conferencia.

Estas situaciones plantean preguntas más amplias sobre el papel de los robots de inteligencia artificial en la creación de contenido y su impacto en la noción tradicional de autoría. A medida que la tecnología avanza, es importante explorar los límites y las implicaciones éticas de estas innovaciones, considerando cómo se complementan o desafían la creatividad humana y la autoría individual.

La cuestión de quién es el autor en estas interacciones plantea un desafío interesante. Si bien los modelos lingüísticos son herramientas poderosas y capaces de producir contenido original, su capacidad de crear está limitada a lo que han aprendido de los datos de entrenamiento. La responsabilidad de la autoría puede recaer en los desarrolladores de la inteligencia artificial, los usuarios que interactúan con ella o incluso en la propia máquina.

Las empresas que producen estas herramientas de aprendizaje automático de inteligencia artificial son muy claras sobre la situación legal y ética de sus productos. La compañía Bloom, una plataforma de IA de LLM, afirma en sus especificaciones que «el uso del modelo en situaciones de alto riesgo está fuera de su alcance… El modelo no está diseñado para decisiones críticas ni para usos con consecuencias materiales en la vida o el bienestar de una persona».. Esto incluye áreas como la atención médica, los juicios legales, las finanzas o la puntuación individual, que a menudo están representadas en las carteras de las editoriales académicas. El descargo de responsabilidad de la empresa Bloom también hace hincapié en la necesidad de que los usuarios indirectos estén informados cuando trabajen con contenidos generados por el modelo lingüístico.

Del mismo modo, en enero de 2023, la Asociación Mundial de Editores Médicos (WAME, por sus siglas en inglés) publicó una respuesta en la que abordaba el uso de los modelos lingüísticos en las publicaciones académicas y hacía una recomendación similar. ChatGPT reconoce sus propias limitaciones y ha declarado que no existe ningún problema ético inherente al uso de la IA en la investigación o la escritura, siempre que se utilice de forma adecuada y ética. En algunos casos, ChatGPT ha reconocido incluso que no cumple todos los criterios de autoría señalados por el Comité Internacional de Editores de Revistas Médicas (ICMJE).

Tanto las directrices del ICMJE como las del Comité de Ética en las Publicaciones (COPE) coinciden en que los bots de IA no deben ser considerados autores, ya que carecen de capacidad legal, no pueden tener derechos de autor, ser considerados responsables o aprobar un trabajo de investigación como original. Editoriales como Springer Nature y Taylor & Francis también han publicado declaraciones instando a los autores a revelar cualquier interacción con la IA en sus métodos o secciones de agradecimiento.

Está claro que estas empresas y organizaciones reconocen la necesidad de transparencia y uso responsable de las tecnologías de IA en la investigación y la escritura. Subrayan la importancia de distinguir entre autores humanos y contenidos generados por IA, al tiempo que promueven las prácticas éticas y la divulgación en la publicación académica.

Es importante señalar que un bot de IA no se preocupa de si la información que devuelve es «verdadera»; su atención se centra en la verosimilitud. Este fenómeno surge porque los robots de IA carecen del concepto de fiabilidad, replicabilidad o «verdad». Su propósito es proporcionar respuestas que tengan un sentido probabilístico basado en la gama de hechos y afirmaciones de sus datos de entrenamiento. Aunque puede haber casos en los que sólo haya una respuesta a una pregunta, en muchos casos puede haber múltiples respuestas posibles, todas ellas igualmente probables desde la perspectiva del bot. Esta capacidad de afirmar diferentes respuestas a la misma pregunta puede provocar a veces una reacción muy humana de ofensa o confusión.

Como se indica en las especificaciones de Bloom, el modelo produce contenidos que pueden parecer factuales, pero no necesariamente correctos. Comprender estas limitaciones es crucial a la hora de utilizar la IA. La evaluación crítica y el uso responsable de la información generada por la IA son vitales para garantizar su aplicación adecuada en diversos contextos, incluida la investigación académica.

De este modo, los editores y las editoriales tendrán que confiar aún más en la responsabilidad de los autores y en una rigurosa revisión por pares para detectar y solucionar tales problemas. Merece la pena señalar que la revisión por pares no siempre descubre fallos basados en los resultados y no en la metodología

Algunos usuarios han expresado su preocupación por el hecho de que ChatGPT atribuya erróneamente o fabrique citas, lo que indica un enfoque potencialmente poco estricto respecto al plagio en sus datos de entrenamiento. Por otra parte, a medida que el modelo aprende de conjuntos de datos más refinados, sus resultados pueden ser más creativos.

Estas observaciones ponen de relieve la naturaleza evolutiva de los contenidos generados por IA y la necesidad de una evaluación, un perfeccionamiento y un conocimiento contextual continuos a la hora de utilizar estas herramientas en las publicaciones académicas. Sigue siendo esencial equilibrar las ventajas que ofrece la IA con la evaluación crítica y el juicio humano para garantizar la integridad y la calidad de la investigación y la publicación académicas.

Un robot -por muy bien entrenado que esté y con el grado de claridad que le aporte la distancia respecto a la desordenada experiencia humana de investigar, planificar y escribir- no puede entender lo que escribe. En pocas palabras, no puede ser responsable. Como ya hemos visto, los robots han sido entrenados para decirlo explícitamente.

En la actualidad, la inteligencia artificial (IA) se presenta como una herramienta sorprendente, siempre y cuando se utilice de manera ética y para fines específicos. Es probable que se convierta en una herramienta indispensable. Sin embargo, existen consideraciones más amplias que deben ser cuidadosamente analizadas en cuanto a cómo y cuándo se debe emplear en la literatura académica, sin mencionar los posibles sesgos y contenido desagradable que pueda estar presente en su material de entrenamiento, lo cual afectará lo que produzca.

Incluso es posible que en el futuro se utilicen herramientas de IA para entrenar mejor a los robots en la escritura de un lenguaje auténticamente humano, siempre y cuando también se les instruya en prácticas éticas. Sin embargo, ¿deberíamos considerar a la IA como una autora legítima? El mundo de la ética en la publicación académica está empezando a rechazar firmemente esa idea, y es fácil entender por qué.

El tiempo dedicado a la lectura por los jóvenes es de 13 minutos al día frente a los 40 minutos dedicados por los mayores de 75 años

«American Time Use Survey Summary – 2022 A01 Results». Accedido 26 de junio de 2023. https://www.bls.gov/news.release/atus.nr0.htm.

PDF

En un día normal, los mayores de 75 años dedican 40 minutos a la lectura, mientras que los de 15 a 19 años leen durante 13 minutos. Por el contrario, las personas de 15 a 19 años dedicaron 1 hora y 38 minutos a jugar o utilizar el ordenador en un día normal, mientras que los mayores de 75 años dedicaron 29 minutos.

La encuesta «American Time Use Survey (ATUS)» sobre el empleo del tiempo en Estados Unidos 2022, incluye datos sobre el tiempo dedicado a la lectura por interés personal. la encuesta se tarda entre 15 y 20 minutos por teléfono. En la misma se pide a los encuestados que recuerden cómo emplearon su tiempo durante el período de 24 horas del día anterior a la entrevista.

Dedican aproximadamente el 37% de su tiempo a dormir, el 22% al ocio y el deporte, el 8% a las actividades domésticas (incluidos los viajes), el 6% al cuidado de los hijos y los padres, y alrededor del 5% a comer y beber.

Los estudios han demostrado que el tiempo de ocio -tiempo libre no relacionado con el trabajo o las tareas domésticas- es importante para nuestra salud y felicidad. El estadounidense medio tiene unas 5 horas de ocio al día y la cantidad óptima de tiempo libre es de unas 2,5 horas. Con menos, la gente se siente estresada; con más, ociosa.

El tiempo dedicado a la lectura por interés personal y a los juegos o al ordenador por ocio varía mucho según la edad. En un día normal, las personas de 75 años o más dedicaban 40 minutos a la lectura, mientras que las de 15 a 19 años leían durante 13 minutos. Por el contrario, las personas de 15 a 19 años dedicaron 1 hora y 38 minutos a jugar o utilizar el ordenador en un día normal, mientras que los mayores de 75 años dedicaron 29 minutos.

la IA supone un riesgo para la humanidad, según la mayoría de los estadounidenses: la encuesta de Reuters/Ipsos revela divisiones religiosas y políticas sobre la IA.

Tong, Anna, y Anna Tong. «AI Threatens Humanity’s Future, 61% of Americans Say: Reuters/Ipsos Poll». Reuters, 17 de mayo de 2023, sec. Technology. https://www.reuters.com/technology/ai-threatens-humanitys-future-61-americans-say-reutersipsos-2023-05-17/.

La mayoría de los estadounidenses cree que el auge de la tecnología de inteligencia artificial podría poner en peligro el futuro de la humanidad, según una encuesta de Reuters/Ipsos publicada el miércoles. La encuesta reveló que más de dos tercios de los encuestados están preocupados por los efectos adversos de la IA, mientras que el 61% la considera una amenaza potencial para la civilización.

La encuesta en línea, realizada del 9 al 15 de mayo, recogió las opiniones de 4.415 adultos estadounidenses. Tiene un intervalo de credibilidad (medida de la precisión) de más o menos dos puntos porcentuales.

Los resultados de la encuesta se producen en medio de la expansión del uso de la IA generativa en la educación, la administración pública, la medicina y la empresa, provocada en parte por el crecimiento explosivo de ChatGPT de OpenAI, que, según se informa, es la aplicación de software de más rápido crecimiento de todos los tiempos. El éxito de la aplicación ha desencadenado una carrera de rumores tecnológicos entre gigantes de la tecnología como Microsoft y Google, que se benefician de tener algo nuevo y de moda para aumentar potencialmente el precio de sus acciones.

Los temores sobre la IA, justificados o no, han retumbado últimamente en el discurso público debido a sucesos de gran repercusión como la carta de la «pausa de la IA» y la dimisión de Geoffery Hinton de Google. (Por temor a la «pérdida de control», los críticos de la IA piden una pausa de 6 meses en su desarrollo*) En un caso reciente de alto perfil de aprensión a la IA, el consejero delegado de OpenAI, Sam Altman, testificó el martes ante el Congreso de EE.UU., expresando su preocupación por el posible mal uso de la tecnología de IA y pidiendo una regulación que, según los críticos, podría ayudar a su empresa a mantener su liderazgo tecnológico y suprimir la competencia.

Los legisladores parecen compartir algunas de estas preocupaciones, como el senador demócrata Cory Booker: «No hay forma de meter a este genio en la botella. A nivel mundial, esto está explotando», informó Reuters.

Este mensaje negativo parece estar surtiendo efecto. Los temores de los estadounidenses sobre el potencial dañino de la IA superan con creces el optimismo sobre sus beneficios, y los que predicen resultados adversos superan a los que no lo hacen en una proporción de tres a uno. «Según los datos, el 61% de los encuestados cree que la IA plantea riesgos para la humanidad, mientras que sólo el 22% está en desacuerdo y el 17% no está seguro», escribió Reuters.

La encuesta también reveló una división política en la percepción de la IA: el 70% de los votantes de Donald Trump expresaron mayor preocupación por la IA, frente al 60% de los votantes de Joe Biden. En cuanto a las creencias religiosas, los cristianos evangélicos estaban más «totalmente de acuerdo» en que la IA plantea riesgos para la civilización humana, con un 32%, frente al 24% de los cristianos no evangélicos.

* Landon Klein, director de política estadounidense del Future of Life Institute, la organización que está detrás de una carta abierta, firmada conjuntamente por Elon Musk, consejero delegado de Tesla (TSLA.O), en la que se exige una pausa de seis meses en la investigación de la IA. «Vemos el momento actual similar al comienzo de la era nuclear, y tenemos el beneficio de la percepción pública que es consistente con la necesidad de tomar medidas».

El catálogo de la biblioteca de Dallas se ha reestablecido después de dos meses de haber sido secuestrado (ransomware)

«Dallas library online catalog restored almost two months after ransomware attack». Accedido 26 de junio de 2023. https://www.dallasnews.com/news/politics/2023/06/23/dallas-library-online-catalog-restored-almost-two-months-after-ransomware-attack/.

Después de casi dos meses desde el ataque de ransomware, finalmente se ha restablecido el catálogo en línea de las bibliotecas de Dallas. Ahora, los residentes tienen la capacidad de procesar devoluciones de libros, explorar el catálogo en línea y solicitar tarjetas de biblioteca.

La directora de la Biblioteca Pública de Dallas, Jo Guidice, ha anunciado que se necesitan voluntarios para ayudar en la tarea de reorganizar miles de libros y otros artículos que se han acumulado durante el período en el que los trabajadores no pudieron procesarlos. Además, se espera que algunos de estos materiales sean devueltos después de que las autoridades instaran a la población a retenerlos tras el ciberataque ocurrido el 3 de mayo.

La ciudad informó que varios servidores fueron afectados por el ransomware a principios de mayo, lo que llevó a tomar la decisión de desconectar otros servidores como medida preventiva para evitar la propagación del software malicioso. Esta acción provocó la interrupción de varios departamentos y servicios municipales, como la incapacidad de los residentes para pagar sus facturas de agua en línea o presentar quejas no urgentes a través de la aplicación 311 de la ciudad.